JP7151753B2 - Nail contour detection device, printing device, nail contour detection method and program - Google Patents

Nail contour detection device, printing device, nail contour detection method and program Download PDF

Info

Publication number
JP7151753B2
JP7151753B2 JP2020170515A JP2020170515A JP7151753B2 JP 7151753 B2 JP7151753 B2 JP 7151753B2 JP 2020170515 A JP2020170515 A JP 2020170515A JP 2020170515 A JP2020170515 A JP 2020170515A JP 7151753 B2 JP7151753 B2 JP 7151753B2
Authority
JP
Japan
Prior art keywords
nail
learning model
detection
contour
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020170515A
Other languages
Japanese (ja)
Other versions
JP2022062482A (en
Inventor
義裕 手島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2020170515A priority Critical patent/JP7151753B2/en
Publication of JP2022062482A publication Critical patent/JP2022062482A/en
Application granted granted Critical
Publication of JP7151753B2 publication Critical patent/JP7151753B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、爪輪郭検出装置、印刷装置、爪輪郭検出方法及びプログラムに関するものである。 The present invention relates to a nail contour detection device, a printing device, a nail contour detection method, and a program.

従来、指の爪等にネイルデザインの印刷を行う印刷装置(ネイルプリント装置)が知られている。
爪にネイルデザインを印刷する場合、例えば爪を含む指の画像から爪の輪郭を検出し、この爪輪郭の内側領域を印刷対象領域として印刷を行う。
2. Description of the Related Art Conventionally, a printing device (nail printing device) that prints a nail design on a fingernail or the like is known.
When printing a nail design on a nail, for example, the contour of the nail is detected from an image of the finger including the nail, and the area inside the contour of the nail is printed as the print target area.

このため、はみ出しや塗残しのない高品位なネイルプリントを施すためには、爪の領域を周りの指(皮膚)部分と区別して、正しく爪輪郭を検出することが重要となる。
この点、ターゲットを撮影した静止画像についてマルコフ確率場(MRF;MarkovRandom Field)モデルを用いて領域分割を行い、その後のオブジェクト抽出等の画像処理を行うための前処理を行う技術が知られている(例えば、特許文献1参照)。
このような技術を、爪とそれ以外(指等の皮膚部分)とを区別して爪の領域だけを検出する場合に適用することも考えられる。
For this reason, it is important to distinguish the nail region from surrounding finger (skin) portions and accurately detect the contour of the nail in order to obtain a high-quality nail print that does not run out or remain unpainted.
In this regard, a technique is known in which a static image of a target is segmented using a Markov Random Field (MRF) model, and preprocessing is performed for subsequent image processing such as object extraction. (See Patent Document 1, for example).
It is conceivable to apply such a technique to the case where only the nail region is detected by distinguishing between the nail and the rest (skin portion such as a finger).

特開2001-297329号公報JP-A-2001-297329

しかしながら、爪に印刷を行う場合、インクの発色をよくする等のため、予め爪の領域に下地を塗布する場合がある。この場合、下地の色は常に同じとは限らない。
爪に塗布されている下地の色が予め学習されている色と異なる場合、特許文献1に記載の手法のようにMRFモデル等の計算モデルを用いた領域分割がうまく機能せず、正しく爪輪郭を検出できないという問題がある。
例えば白色の部分を検出するように学習した学習モデルでは、薄いピンクや薄い水色などの白色以外の下地が爪に塗布されている場合に爪の輪郭を正しく検出することができない。
However, in the case of printing on the nails, in order to improve the color development of the ink, etc., there are cases in which a base is applied to the nail region in advance. In this case, the background color is not always the same.
When the color of the base applied to the nail is different from the color learned in advance, the area segmentation using a computational model such as the MRF model as in the method described in Patent Document 1 does not work well, and the nail contour is correctly calculated. The problem is that it is not possible to detect
For example, a learning model trained to detect a white portion cannot correctly detect the contour of the nail when the nail is coated with a base other than white, such as light pink or light blue.

この点、下地の色ごとに学習し、各色に対応する学習モデルを作成し直すことも考えられるが、複数の学習モデルを一から作り直すことは、手間も時間もかかり煩雑である。
また、学習し直さずに対応する手法として、撮影した画像の下地の色が学習モデルにおいて学習済みの色(例えば白色)となるように、撮影画像に対して色の補正(ホワイトバランス)を行うことも考えられる。
しかし、この場合には、下地が塗布されている領域だけでなく、皮膚等、爪以外の領域の色まで補正されてしまうため、検出精度が低下してしまう。
In this respect, it is conceivable to learn for each base color and recreate a learning model corresponding to each color, but recreating a plurality of learning models from scratch is troublesome and time consuming.
In addition, as a method to cope without re-learning, color correction (white balance) is performed on the captured image so that the background color of the captured image becomes the color that has been learned in the learning model (for example, white). It is also possible.
However, in this case, not only the color of the area where the base is applied but also the color of the area other than the nail, such as the skin, is corrected, resulting in a decrease in detection accuracy.

本発明は以上のような事情に鑑みてなされたものであり、下地として爪に塗られている色に関わりなく適切に爪輪郭を検出することのできる爪輪郭検出装置、印刷装置、爪輪郭検出方法及びプログラムを提供することを利点とするものである。 SUMMARY OF THE INVENTION The present invention has been made in view of the circumstances as described above, and provides a nail contour detecting device, a printing device, and a nail contour detecting device capable of appropriately detecting the nail contour regardless of the color of the base applied to the nail. It is an advantage to provide a method and program.

前記課題を解決するために、本発明の爪輪郭検出装置は、
下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得手段と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成手段と、
前記学習モデル生成手段によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出手段と、
を備えることを特徴とする。
In order to solve the above problems, the nail contour detection device of the present invention includes:
a pixel information obtaining means for obtaining values relating to pixels in a detection area detected from an image including a nail to which a foundation is applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. learning model generation means for generating a second learning model for detection;
detection means for detecting, when the learning model generating means generates the second learning model, applying the second learning model to detect, as a nail contour, a contour of an area where the base is applied from the image;
characterized by comprising

本発明によれば、下地として爪に塗られている色に関わりなく適切に爪輪郭を検出することが可能となるとの効果を奏する。 According to the present invention, it is possible to appropriately detect the contour of the nail regardless of the color of the base applied to the nail.

本実施形態における印刷装置の概略構成を示す図である。1 is a diagram showing a schematic configuration of a printing apparatus according to this embodiment; FIG. 本実施形態における印刷装置及びこれと連携する端末装置の制御構成を示した要部ブロック図である。3 is a block diagram of main parts showing a control configuration of a printing apparatus and a terminal apparatus cooperating with the printing apparatus according to the present embodiment; FIG. 本実施形態に係る印刷処理を示すフローチャートである。4 is a flowchart showing print processing according to the embodiment; 爪に該当する領域として検出される検出領域の一例を示す図である。FIG. 4 is a diagram showing an example of a detection region detected as a region corresponding to a nail; 爪に該当する領域として検出される検出領域の一変形例を示す図である。FIG. 10 is a diagram showing a modified example of a detection region detected as a region corresponding to a nail;

図1から図4を参照しつつ、本発明に係る爪輪郭検出装置、印刷装置、爪輪郭検出方法及びプログラムの一実施形態について説明する。
なお、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているが、本発明の範囲を以下の実施形態及び図示例に限定するものではない。
また、以下の実施形態では、印刷装置が手の指の爪を印刷対象としてこれに印刷するネイルプリント装置を例に説明するが、本発明における印刷装置の印刷対象は手の指の爪に限るものではなく、例えば足の指の爪等を印刷対象としてもよい。
An embodiment of a nail contour detection device, a printing device, a nail contour detection method, and a program according to the present invention will be described with reference to FIGS. 1 to 4. FIG.
Although various technically desirable limitations are attached to the embodiments described below for carrying out the present invention, the scope of the present invention is not limited to the following embodiments and illustrated examples.
Further, in the following embodiments, a nail printing apparatus in which the printing apparatus prints on fingernails as an object to be printed will be described as an example, but the printing object of the printing apparatus in the present invention is limited to fingernails. Instead of objects, for example, toe nails or the like may be printed.

図1は、本実施形態における印刷装置(ネイルプリント装置)の外観を示す斜視図である。また本実施形態では、印刷装置が端末装置と連携して爪に印刷を行う場合を例示する。図2は、印刷装置及びこれと連携する端末装置の要部制御構成を示すブロック図である。
なお、以下の実施形態において、上下、左右及び前後は、図1に示した向きをいうものとする。また、X方向、Y方向は、図1に示した方向をいうものとする。
FIG. 1 is a perspective view showing the appearance of a printing device (nail printing device) according to this embodiment. Further, in this embodiment, a case in which a printing device prints on a nail in cooperation with a terminal device will be exemplified. FIG. 2 is a block diagram showing a main control configuration of a printing device and a terminal device cooperating therewith.
In the following embodiments, up and down, left and right, and front and back refer to directions shown in FIG. Also, the X direction and the Y direction refer to the directions shown in FIG.

本実施形態において、印刷装置1は、図1に示すように、ほぼ箱形に形成された筐体11を有している。
筐体11の上面(天板)には操作部12が設置されている。
操作部12は、ユーザが各種入力を行う操作部である。
操作部12は、例えば、印刷装置1の電源をONする電源スイッチ釦、動作を停止させる停止スイッチ釦、印刷開始を指示する印刷開始釦等、各種の入力を行うための操作釦で構成されている。
操作部12が操作されると操作に応じた操作信号が制御装置30に出力され、制御装置30が操作信号に従った制御を行い、印刷装置1の各部を動作させる。
なお、操作部12に代えて、後述する端末装置7の操作部71から入力された操作信号に従って印刷装置1の各部が動作するようにしてもよい。
In this embodiment, as shown in FIG. 1, the printing apparatus 1 has a housing 11 that is substantially box-shaped.
An operation unit 12 is installed on the upper surface (top plate) of the housing 11 .
The operation unit 12 is an operation unit through which a user performs various inputs.
The operation unit 12 includes operation buttons for performing various inputs, such as a power switch button for turning on the power of the printer 1, a stop switch button for stopping operation, and a print start button for instructing start of printing. there is
When the operation section 12 is operated, an operation signal corresponding to the operation is output to the control device 30, and the control device 30 performs control according to the operation signal to operate each section of the printing apparatus 1. FIG.
Instead of the operation unit 12, each unit of the printer 1 may operate according to an operation signal input from an operation unit 71 of the terminal device 7, which will be described later.

また、印刷装置1は通信部14(図2参照)を備えている。通信部14は、端末装置7との間で情報の送受信が可能に構成されたものである。
印刷装置1と端末装置7との間での通信は、例えば無線LAN等により行われる。なお、印刷装置1と端末装置7との間での通信はこれに限定されず、いかなる方式によるものでもよい。通信部14は端末装置7の通信方式に対応するアンテナチップ等を備えている。
通信部14は、後述する制御装置30の通信制御部311(図2参照)に接続され、該通信制御部311によって制御される。
The printing device 1 also includes a communication unit 14 (see FIG. 2). The communication unit 14 is configured to be able to transmit and receive information to and from the terminal device 7 .
Communication between the printing device 1 and the terminal device 7 is performed by, for example, a wireless LAN. The communication between the printing device 1 and the terminal device 7 is not limited to this, and any method may be used. The communication unit 14 includes an antenna chip and the like compatible with the communication method of the terminal device 7 .
The communication unit 14 is connected to a communication control unit 311 (see FIG. 2) of the control device 30 to be described later, and is controlled by the communication control unit 311 .

印刷装置1の筐体11の前面側(図1においてY方向の手前側)であって装置の左右方向(図1及び図3におけるX方向)のほぼ中央部には、印刷装置1による印刷時に指Uを挿入する開口部である指挿入口15が形成されている。
筐体11の内部は、仕切り板16によって上下に仕切られており、仕切り板16の上側であって指挿入口15に対応する位置には、印刷時に挿入された指Uを載置・保持する指保持部2が設けられている。
On the front side of the housing 11 of the printer 1 (the front side in the Y direction in FIG. 1) and approximately in the center in the horizontal direction of the device (the X direction in FIGS. 1 and 3), there is a A finger insertion opening 15, which is an opening into which the finger U is inserted, is formed.
The interior of the housing 11 is vertically partitioned by a partition plate 16, and a finger U inserted during printing is placed and held at a position above the partition plate 16 corresponding to the finger insertion opening 15. A finger holding portion 2 is provided.

指保持部2は、爪Tの表面が露出した状態で指Uを保持するようになっており、指保持部2の下側、すなわち、仕切り板16の上には、保持された指Uの腹を受ける指支持部材21が設けられている。また、指保持部2における指挿入方向の奥側(図1において印刷装置1の後方)には、爪先を載せる爪載置部25(図4参照)が設けられている。
本実施形態では、指保持部2に指Uを保持させ、爪載置部25に爪先を載せることで、当該指Uの爪Tが所定の位置に位置決めされる。
The finger holding part 2 holds the finger U in a state where the surface of the nail T is exposed. A finger support member 21 is provided for receiving the abdomen. Further, a nail placing portion 25 (see FIG. 4) on which the tip of the nail is placed is provided on the back side of the finger holding portion 2 in the finger insertion direction (rear side of the printing apparatus 1 in FIG. 1).
In this embodiment, the finger U is held by the finger holding portion 2 and the nail T of the finger U is positioned at a predetermined position by placing the tip of the nail on the nail placing portion 25 .

また、筐体11の内部には、指Uの爪T(爪Tの表面)に印刷を施す印刷部40と、爪Tを含む指Uの画像を取得する撮影部50等が設けられている。 Further, inside the housing 11, there are provided a printing unit 40 for printing on the nail T of the finger U (the surface of the nail T), an imaging unit 50 for acquiring an image of the finger U including the nail T, and the like. .

印刷部40は、後述する爪輪郭検出装置としての制御装置30によって検出された爪輪郭TLの内側領域を印刷対象領域として印刷を行う印刷手段である。
印刷部40は、印刷ヘッド41と、印刷ヘッド41をX方向(図1等におけるX方向、印刷装置1の左右方向)、Y方向(図1等におけるY方向、印刷装置1の前後方向)に移動させるためのヘッド移動機構49(図2参照)等を備えている。
印刷ヘッド41は、印刷ヘッド41をX方向に移動させるためのX方向移動ステージ、印刷ヘッド41をY方向に移動させるためのY方向移動ステージ(いずれも図示せず)に支持されており、ヘッド移動機構49は、印刷ヘッド41をX方向及びY方向に適宜移動させるための駆動部としてのX方向移動モータ46とY方向移動モータ48等を備えて構成されている。
The printing unit 40 is a printing unit that prints an area inside the nail contour TL detected by the control device 30 as a nail contour detecting device, which will be described later, as a print target region.
The printing unit 40 moves the print head 41 in the X direction (the X direction in FIG. 1 and the like, the left and right direction of the printing device 1) and the Y direction (the Y direction in FIG. 1 and the like, the front and back direction of the printing device 1). A head moving mechanism 49 (see FIG. 2) and the like are provided for movement.
The print head 41 is supported by an X-direction movement stage for moving the print head 41 in the X direction and a Y-direction movement stage for moving the print head 41 in the Y direction (both not shown). The moving mechanism 49 includes an X-direction moving motor 46, a Y-direction moving motor 48, and the like, which serve as drive units for appropriately moving the print head 41 in the X and Y directions.

本実施形態の印刷ヘッド41は、例えば爪表面に対向する面がインクを吐出させる複数のノズル口(図示せず)を備えたインク吐出面410となっており、インクを微滴化し、インク吐出面から印刷対象(爪T)の被印刷面である爪表面に対して直接にインクを吹き付けて印刷を行うインクジェット方式のインクジェットヘッドである。
印刷ヘッド41は、例えばシアン(C;CYAN)、マゼンタ(M;MAGENTA)、イエロー(Y;YELLOW)等の各色のインクを吐出可能となっている。なお、印刷ヘッド41が吐出可能な色インクの種類はこれに限定されず、この他の色のインクを吐出可能となっていてもよい。例えばデザインの下地となり得る白色等のインクを吐出可能となっていてもよい。
The print head 41 of this embodiment has, for example, an ink ejection surface 410 having a plurality of nozzle openings (not shown) for ejecting ink on the surface facing the nail surface. It is an inkjet head of an inkjet system that performs printing by spraying ink directly onto the surface of a nail, which is the surface to be printed (nail T), from the surface.
The print head 41 can eject ink of each color such as cyan (C; CYAN), magenta (M; MAGENTA), and yellow (Y; YELLOW). Note that the type of color ink that can be ejected by the print head 41 is not limited to this, and ink of other colors may be ejected. For example, it may be possible to eject white ink or the like that can serve as a base for a design.

印刷部40における印刷ヘッド41、印刷ヘッド41を駆動させる駆動部としてのX方向移動モータ46及びY方向移動モータ48は、後述する制御装置30の印刷制御部315(図2参照)に接続され、該印刷制御部315によって制御される。 The print head 41 in the printing unit 40, and the X-direction movement motor 46 and the Y-direction movement motor 48 as driving units for driving the print head 41 are connected to a print control unit 315 (see FIG. 2) of the control device 30, which will be described later. It is controlled by the print control unit 315 .

図2に示すように、撮影部50は、撮影装置51と、照明装置52とを備えている。
撮影装置51は、例えば200万画素程度以上の画素を有する固体撮影素子とレンズ等を備えて構成された小型カメラである。また、照明装置52は、例えば白色LED等の照明灯である。
撮影部50は、指保持部2に保持された指Uの爪Tを照明装置52によって照明する。そして、撮影装置51によってその指Uを撮影して、指Uの爪Tの画像である爪画像(爪画像を含む指の画像、図4参照)を得る。
撮影部50は、後述する制御装置30の撮影制御部312(図2参照)に接続され、該撮影制御部312によって制御されるようになっている。
なお、撮影部50によって撮影された画像の画像データは、後述する記憶部32に記憶されてもよい。また、撮影部50によって取得された爪画像は、通信部14を介して端末装置7に送られてもよい。
As shown in FIG. 2, the imaging unit 50 includes an imaging device 51 and an illumination device 52 .
The imaging device 51 is a compact camera including a solid-state imaging device having pixels of, for example, two million pixels or more, a lens, and the like. Also, the lighting device 52 is, for example, a lighting lamp such as a white LED.
The photographing unit 50 illuminates the nail T of the finger U held by the finger holding unit 2 with the illumination device 52 . Then, the finger U is photographed by the photographing device 51 to obtain a nail image that is an image of the nail T of the finger U (image of the finger including the nail image, see FIG. 4).
The photographing unit 50 is connected to a photographing control unit 312 (see FIG. 2) of the control device 30 to be described later, and is controlled by the photographing control unit 312 .
Note that the image data of the image captured by the imaging unit 50 may be stored in the storage unit 32, which will be described later. Also, the nail image acquired by the imaging unit 50 may be sent to the terminal device 7 via the communication unit 14 .

撮影部50は、指保持部2に保持された指U及びその爪Tを撮影可能な位置に設けられていればよく、具体的な配置は特に限定されない。本実施形態では、撮影装置51及び照明装置52は、筐体11の天面内側であって指保持部2に保持された指Uの爪T(爪Tの表面)と対向可能な位置に固定配置されている。
なお、撮影部50は、印刷ヘッド41を移動させるヘッド移動機構49によってXY方向に移動可能に構成されていてもよい。
The photographing unit 50 may be provided at a position where the finger U and the nail T held by the finger holding unit 2 can be photographed, and the specific arrangement is not particularly limited. In this embodiment, the photographing device 51 and the lighting device 52 are fixed at a position inside the top surface of the housing 11 so as to be able to face the nail T (surface of the nail T) of the finger U held by the finger holding portion 2. are placed.
Note that the imaging unit 50 may be configured to be movable in the XY directions by a head moving mechanism 49 that moves the print head 41 .

印刷装置1に搭載される制御装置30は、図示しないCPU(Central Processing Unit)等のプロセッサにより構成される制御部31(図2参照)と、ROM(Read Only Memory)及びRAM(Random Access Memory)等(いずれも図示せず)で構成される記憶部32(図2参照)とを備えるコンピュータである。
本実施形態では、制御装置30は、後述するように、サンプリング手段、画素情報取得手段、学習モデル生成手段、及び検出手段として機能する制御部31を有し、爪画像から爪輪郭TLを検出する爪輪郭検出装置として機能する。
The control device 30 mounted on the printing apparatus 1 includes a control unit 31 (see FIG. 2) configured by a processor such as a CPU (Central Processing Unit) (not shown), ROM (Read Only Memory) and RAM (Random Access Memory). etc. (none of which are shown) and a storage unit 32 (see FIG. 2).
In this embodiment, the control device 30 has a control unit 31 functioning as sampling means, pixel information acquisition means, learning model generation means, and detection means, as will be described later, and detects the nail contour TL from the nail image. It functions as a nail contour detector.

記憶部32には、印刷装置1を動作させるための各種プログラムや各種データ等が格納されている。
具体的には、記憶部32には、爪輪郭の検出処理を行うための爪輪郭検出プログラムや、印刷処理を行うための印刷プログラム等の各種プログラムが格納されたプログラム記憶領域321、爪Tの輪郭情報(以下「爪輪郭」という。)を検出するための学習モデルを格納する学習モデル記憶領域322、爪Tに関する各種情報が格納させる爪情報記憶領域323等が設けられている。
プログラム記憶領域321に記憶されているプログラムが制御部31によって実行されることによって、印刷装置1の各部が統括制御されるようになっている。
The storage unit 32 stores various programs and data for operating the printing apparatus 1 .
Specifically, the storage unit 32 includes a program storage area 321 storing various programs such as a nail contour detection program for performing nail contour detection processing and a print program for performing print processing. A learning model storage area 322 for storing a learning model for detecting contour information (hereinafter referred to as "nail contour"), a nail information storage area 323 for storing various information about the nail T, and the like are provided.
The programs stored in the program storage area 321 are executed by the control unit 31, so that each unit of the printing apparatus 1 is centrally controlled.

学習モデル記憶領域322には、爪輪郭検出用の学習モデルが記憶されている。
学習モデル記憶領域322に格納されている学習モデル(既存の学習モデル、第1の学習モデル)は、例えば印刷装置1の出荷時等に既に生成され記憶されるもの(初期状態の学習モデル)でる。
第1の学習モデル(初期状態の学習モデル)は、事前に色の分布の学習を行うことで生成される。具体的には、下地が塗布された爪Tの画像を複数枚用意し、これらの画像から、下地が塗布された爪Tの領域(前景)とそれ以外の領域(指U等の皮膚部分、背景)の画素に関する値(後述するように本実施形態では画素値)をサンプリングする。そして、サンプリングした画素から、下地が塗布された爪Tの領域(前景)、それ以外の領域(皮膚等、背景)のそれぞれについて色の分布をモデル化する。
A learning model for nail contour detection is stored in the learning model storage area 322 .
The learning model (existing learning model, first learning model) stored in the learning model storage area 322 is, for example, one that has already been generated and stored at the time of shipment of the printing apparatus 1 (learning model in the initial state). .
A first learning model (learning model in an initial state) is generated by previously learning a color distribution. Specifically, a plurality of images of the nail T to which the base is applied are prepared, and from these images, the region (foreground) of the nail T to which the base is applied and the other regions (skin portion such as the finger U, etc.) (background) pixel values (pixel values in this embodiment, as will be described later) are sampled. Then, from the sampled pixels, the color distribution is modeled for each of the region of the nail T to which the foundation is applied (foreground) and other regions (skin, etc., background).

本実施形態において第1の学習モデル(初期状態の学習モデル)は、下地として白色が塗布されている場合について学習した学習済みモデルである。
本実施形態では、爪輪郭検出用の学習モデルとして混合正規分布(混合ガウス分布)モデル(GMM;Gaussian Mixture Model)を採用する場合を例として説明する。なお、学習モデルは混合正規分布モデルに限定されず、領域の区分(クラスタリング)に適した各種のモデルを適宜採用することができる。
本実施形態では、後述するように新しい学習モデルが生成された場合でも、この初期状態の学習モデルが上書きされずに保存され、検出領域Ar(図4参照)をサンプリングする際には、この第1の学習モデル(初期状態の学習モデル)がデフォルトとして適用される。
In the present embodiment, the first learning model (learning model in the initial state) is a learned model that has learned about the case where white is applied as the base.
In the present embodiment, a case in which a mixed normal distribution (gaussian mixture distribution) model (GMM: Gaussian Mixture Model) is adopted as a learning model for nail contour detection will be described as an example. Note that the learning model is not limited to the mixed normal distribution model, and various models suitable for segmentation (clustering) of regions can be appropriately adopted.
In this embodiment, even when a new learning model is generated as described later, the learning model in the initial state is saved without being overwritten. A learning model of 1 (initial state learning model) is applied as a default.

制御部31は、機能的に見た場合、通信制御部311、撮影制御部312、爪情報検出部313、印刷データ生成部314、印刷制御部315等を備えている。これら通信制御部311、撮影制御部312、爪情報検出部313、印刷データ生成部314、印刷制御部315等としての機能は、制御部31のCPUと記憶部32のプログラム記憶領域321に記憶されたプログラムとの協働によって実現される。 The control unit 31 includes a communication control unit 311, an imaging control unit 312, a nail information detection unit 313, a print data generation unit 314, a print control unit 315, and the like from a functional point of view. Functions of the communication control unit 311, the photographing control unit 312, the nail information detection unit 313, the print data generation unit 314, the print control unit 315, etc. are stored in the CPU of the control unit 31 and the program storage area 321 of the storage unit 32. This will be realized in collaboration with the program.

通信制御部311は、通信部14の動作を制御するものである。本実施形態では、端末装置7との間での通信を制御し、端末装置7からネイルデザインのデータ等が送信された場合にこれを受信する。
また、撮影部50によって爪画像が取得されたときは、爪画像データを端末装置7に送信してもよい。
The communication control section 311 controls the operation of the communication section 14 . In this embodiment, communication with the terminal device 7 is controlled, and when data such as nail design data is transmitted from the terminal device 7, it is received.
Moreover, when the nail image is acquired by the photographing unit 50 , the nail image data may be transmitted to the terminal device 7 .

撮影制御部312は、撮影部50の撮影装置51及び照明装置52を制御して撮影装置51により、指保持部2に保持された指Uの爪Tの画像を含む指の画像(以下「爪画像」という。図4参照)を撮影させるものである。
撮影部50により取得された爪画像の画像データは、記憶部32に記憶されてもよいし、通信部14を介して端末装置7に送信されてもよい。
The photographing control unit 312 controls the photographing device 51 and the lighting device 52 of the photographing unit 50 so that the photographing device 51 captures a finger image including an image of the nail T of the finger U held by the finger holding unit 2 (hereinafter referred to as “nail (refer to Fig. 4).
The image data of the nail image acquired by the imaging unit 50 may be stored in the storage unit 32 or may be transmitted to the terminal device 7 via the communication unit 14 .

爪情報検出部313は、撮影装置51によって撮影された指保持部2に保持された指Uの爪Tの画像に基づいて、指Uの爪Tについての爪情報を検出するものである。
ここで、爪情報とは、例えば、爪Tの輪郭(爪Tの水平位置のXY座標等で表される爪輪郭TL(図4等参照))、爪Tの長手方向の長さ、爪Tの幅方向の長さ、爪Tの表面の、XY平面に対する傾斜角度(爪Tの傾斜角度、爪曲率)等である。なお、撮影装置51によって撮影された画像等から爪Tの高さ(爪Tの垂直方向の位置)を取得できる場合には、爪Tの高さも爪情報に含まれる。
The nail information detection unit 313 detects nail information about the nail T of the finger U based on the image of the nail T of the finger U captured by the imaging device 51 and held by the finger holding unit 2 .
Here, the nail information includes, for example, the contour of the nail T (the nail contour TL represented by the XY coordinates of the horizontal position of the nail T (see FIG. 4, etc.)), the length of the nail T in the longitudinal direction, the length of the nail T , the inclination angle of the surface of the claw T with respect to the XY plane (inclination angle of the claw T, claw curvature), and the like. Note that if the height of the nail T (vertical position of the nail T) can be acquired from an image or the like captured by the imaging device 51, the height of the nail T is also included in the nail information.

特に、本実施形態において爪情報検出部313は、爪輪郭TLを検出する検出手段として機能する他、サンプリング手段、画素情報取得手段、及び学習モデル生成手段として機能する。
検出手段としての爪情報検出部313は、爪輪郭検出用の学習モデルを適用して爪Tの画像から下地が塗布された領域の輪郭を爪輪郭TL(図4参照)として検出する。なお、下地は、ユーザ等が手塗りで爪Tに施すことが想定されるが、下地を塗布する手法はこれに限定されない。
後述するように、爪情報検出部313が学習モデル生成手段として第2の学習モデルを生成したときは、検出手段としての爪情報検出部313は、当該第2の学習モデルを適用して爪輪郭TLの検出を行う。
In particular, in this embodiment, the nail information detection unit 313 functions as detection means for detecting the nail contour TL, as well as sampling means, pixel information acquisition means, and learning model generation means.
A nail information detection unit 313 as a detection means applies a learning model for nail contour detection to detect the contour of the area where the foundation is applied from the image of the nail T as the nail contour TL (see FIG. 4). It is assumed that the base is applied to the nail T by hand by a user or the like, but the method of applying the base is not limited to this.
As will be described later, when the nail information detection unit 313 generates a second learning model as a learning model generation unit, the nail information detection unit 313 as a detection unit applies the second learning model to obtain a nail contour. TL detection is performed.

サンプリング手段としての爪情報検出部313は、下地が塗布された爪Tを含む画像から爪Tに該当する領域を検出領域Arとして検出(サンプリング)する。
ここで「爪Tに該当する領域」とは、爪画像中、爪Tである可能性が高いと判断される領域である。爪Tの領域を認識する場合に、爪Tと指U(皮膚等)との境界部分を厳密に検出することは難しい。特に本実施形態では、検出領域Arをサンプリングする際には、下地が白色である場合について学習した第1の学習モデル(記憶部32の学習モデル記憶領域322に記憶されている初期状態の学習モデル)を用いる。このため、爪Tに塗布されている下地の色が白色以外(例えば薄いピンク等)である場合には、下地が塗布されている領域を隅々まで正しく検出することが難しい。
そこで本実施形態では、爪情報検出部313が第1の学習モデルを適用することにより爪Tらしい領域として検出した領域(図4に示す「仮の爪輪郭TLe」の内側領域)の中央部分の所定領域を「爪Tに該当する領域」とする。これにより、サンプリング手段としての爪情報検出部313が厳密に爪Tの境界部分まで検出できず、図4に示すように、仮の爪輪郭TLeが実際の爪輪郭TLとずれている場合でも、爪Tである可能性が高いといえる領域を検出領域Arとすることができる。
A nail information detection unit 313 as sampling means detects (samples) an area corresponding to the nail T from an image including the nail T to which the foundation is applied as a detection area Ar.
Here, the “region corresponding to the nail T” is a region in the nail image that is determined to be the nail T with a high possibility. When recognizing the area of the nail T, it is difficult to strictly detect the boundary between the nail T and the finger U (skin or the like). In particular, in this embodiment, when sampling the detection area Ar, the first learning model (the learning model in the initial state stored in the learning model storage area 322 of the storage unit 32) trained for the case where the background is white is used. ) is used. Therefore, when the color of the base applied to the nail T is other than white (for example, pale pink), it is difficult to accurately detect every corner of the area where the base is applied.
Therefore, in the present embodiment, by applying the first learning model, the nail information detection unit 313 detects a region that is likely to be the nail T (the inner region of the “provisional nail contour TLe” shown in FIG. 4). Let the predetermined area be "the area corresponding to the nail T". As a result, even if the nail information detection unit 313 as a sampling means cannot strictly detect the boundary portion of the nail T, and the temporary nail contour TLe deviates from the actual nail contour TL as shown in FIG. An area that is likely to be the nail T can be set as the detection area Ar.

画素情報取得手段としての爪情報検出部313は、サンプリング手段として検出した検出領域Arの画素に関する値を取得する。
ここで「画素に関する値」とは、例えばRGB、YUV等で表される画素値や、輝度値等である。なお、検出領域Arの画素に関する値は、下地が塗布された領域の検出に用いられるものであり、色情報を有する方が正確な検出を行うことができる。このため、輝度値よりもRGB等の画素値であることが好ましい。なお、「画素に関する値」として、画素値と併せて輝度値を考慮してもよい。本実施形態では、以下「画素に関する値」が画素値である場合を例に説明する。
The nail information detection unit 313 as pixel information acquisition means acquires values related to pixels in the detection area Ar detected as sampling means.
Here, the "value regarding a pixel" is, for example, a pixel value represented by RGB, YUV, etc., a luminance value, or the like. Note that the values relating to the pixels in the detection area Ar are used for detecting the area where the base is applied, and more accurate detection can be performed if color information is included. Therefore, pixel values such as RGB are preferable to luminance values. Note that the luminance value may be considered together with the pixel value as the “value regarding the pixel”. In the present embodiment, a case where the "value regarding a pixel" is a pixel value will be described below as an example.

学習モデル生成手段としての爪情報検出部313は、爪輪郭検出用として記憶部32の学習モデル記憶領域322に記憶されている第1の学習モデルにおける下地塗布領域の画素に関する値(画素値)と検出領域Arの画素に関する値(画素値)との差分に基づいて第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する。生成された第2の学習モデルは、学習モデル記憶領域322に記憶される。 A nail information detection unit 313 as a learning model generation unit generates values (pixel values) related to pixels in the base coating region in the first learning model stored in the learning model storage area 322 of the storage unit 32 for nail contour detection and A second learning model for nail contour detection is generated by correcting the first learning model based on the difference from the values (pixel values) of the pixels in the detection area Ar. The generated second learning model is stored in the learning model storage area 322 .

なお本実施形態では、新たに第2の学習モデルが生成されても、学習モデル記憶領域322に既に記憶されている学習モデル(既存の学習モデル、第1の学習モデル)を上書きせずに残すようになっている。例えば印刷装置1の出荷時に当初から格納されている爪輪郭検出用の学習モデル(初期状態の学習モデル)は、白色の部分を指U等の皮膚の色と区別して下地の塗布された領域として検出するように学習されている。このような初期状態の学習モデルをデフォルトとして保存しておくことで、新たな爪画像が取得された際に、白色から検出を始めて、爪Tに下地として実際に塗布されている色との差分を見ていくことができる。
なお、第1の学習モデル(既存の学習モデル)は、第2の学習モデルが生成されるとこれによって上書き、更新されるようにしてもよい。この場合には、制御部31は学習モデル生成手段によって第2の学習モデルが生成されたときに、この第2の学習モデルを、第1の学習モデルとして記憶部32(学習モデル記憶領域322)に記憶させる記憶制御手段として機能する。また、白色で学習された初期状態の学習モデルのみデフォルトとして残し、その後に生成された第2の学習モデルについては、新しい学習モデルが生成される度に適宜破棄、更新されるようにしてもよい。
Note that in this embodiment, even if a second learning model is newly generated, the learning model already stored in the learning model storage area 322 (existing learning model, first learning model) is left without being overwritten. It's like For example, a learning model for nail contour detection (initial state learning model) stored at the time of shipment of the printing apparatus 1 distinguishes a white portion from the color of the skin of the finger U, etc., and treats it as an area where the base is applied. learned to detect. By storing such an initial state learning model as a default, when a new nail image is acquired, detection is started from white, and the difference from the color actually applied to the nail T as the base is calculated. you can look at
Note that the first learning model (existing learning model) may be overwritten and updated by the second learning model when it is generated. In this case, when the second learning model is generated by the learning model generating means, the control unit 31 stores the second learning model as the first learning model in the storage unit 32 (learning model storage area 322). function as memory control means for storing in Alternatively, only the learning model in the initial state learned in white may be left as a default, and the second learning model generated thereafter may be appropriately discarded and updated each time a new learning model is generated. .

本実施形態において学習モデル生成手段としての爪情報検出部313は、検出領域Arの画素に関する値(画素値)について平均値を取得し、当該平均値と爪輪郭検出用の第1の学習モデルにおける下地塗布領域の混合正規分布を構成する各正規分布の期待値の平均値との差分を算出して、これを第1の学習モデルを補正する補正値とする。
なお、第1の学習モデルにおける下地塗布領域の混合正規分布を構成する各正規分布の期待値やその平均値は、検出領域Arの画素値の平均値を算出するときに算出してもよいが、予め算出しておき、当該第1の学習モデルと対応付けて記憶部32に記憶させておいてもよい。
また、第1の学習モデルにおける下地塗布領域の混合正規分布の平均値を算出するにあたっては、混合正規分布を構成する各正規分布のレベル(寄与率)に応じて重み付けをした上で平均値を算出してもよい。
なお、爪情報検出部313が第2の学習モデルを生成し、爪輪郭TLを検出する具体的な処理については後に詳述する。
In the present embodiment, the nail information detection unit 313 as learning model generation means acquires an average value of values (pixel values) related to pixels in the detection area Ar, and compares the average value with the first learning model for nail contour detection. A difference from the average value of the expected values of the normal distributions forming the mixed normal distribution of the base coating region is calculated and used as a correction value for correcting the first learning model.
Note that the expected value and the average value of each normal distribution that constitutes the mixed normal distribution of the base coating area in the first learning model may be calculated when calculating the average value of the pixel values of the detection area Ar. , may be calculated in advance and stored in the storage unit 32 in association with the first learning model.
In addition, in calculating the average value of the mixed normal distribution of the base coating region in the first learning model, the average value is calculated after weighting according to the level (contribution rate) of each normal distribution that constitutes the mixed normal distribution. can be calculated.
A specific process for the nail information detection unit 313 to generate the second learning model and detect the nail contour TL will be described in detail later.

印刷データ生成部314は、爪情報検出部313による検出結果から印刷部40による印刷対象領域を設定し、印刷用データを生成するものである。
前述のように本実施形態では、撮影部50の撮影装置51において印刷対象である爪Tが撮影され、当該爪画像について爪情報検出部313によって爪輪郭TL等の爪情報が検出される。印刷データ生成部314は、この検出結果に基づいて爪輪郭TLの内側の領域に印刷部40により印刷を行う領域(印刷対象領域)を設定し、印刷用データを生成する。
具体的には、印刷データ生成部314は、爪輪郭TLに合わせて印刷対象であるユーザによって選択されたネイルデザインの画像データを切り抜き、適宜拡大縮小等を行い、印刷用データを生成する。
なお、爪情報検出部313において爪Tの曲率等が検出された場合には、印刷データ生成部314は、この爪Tの曲率等に基づいて、印刷用データに曲面補正を行ってもよい。曲面補正を行った場合には、より爪Tの形状に合った印刷用データを生成することができる。
なお、爪Tに印刷するデザインとして選択されたものが、爪領域全体に印刷されるものではなく、例えば爪先部分のみに印刷するフレンチネイル等である場合には、印刷データ生成部314は、爪情報検出部313によって検出された爪輪郭TLにデザインを合わせ込んで、ユーザの爪Tの形状にあった形状・範囲の部分デザインの印刷用データを生成する。
The print data generation unit 314 sets a print target area by the printing unit 40 based on the detection result of the nail information detection unit 313, and generates print data.
As described above, in the present embodiment, the photographing device 51 of the photographing unit 50 photographs the nail T to be printed, and the nail information detection unit 313 detects nail information such as the nail contour TL for the nail image. The print data generation unit 314 sets an area (print target area) to be printed by the printing unit 40 in the area inside the nail contour TL based on the detection result, and generates print data.
Specifically, the print data generation unit 314 cuts out the image data of the nail design selected by the user to be printed according to the nail contour TL, scales the image data appropriately, and generates print data.
When the curvature of the nail T is detected by the nail information detection unit 313, the print data generation unit 314 may perform curved surface correction on the print data based on the curvature of the nail T. When curved surface correction is performed, print data more suitable for the shape of the nail T can be generated.
Note that when the design selected as the design to be printed on the nail T is not printed on the entire nail region, but is, for example, a French nail that is printed only on the tip of the nail, the print data generation unit 314 The design is matched with the nail contour TL detected by the information detection unit 313 to generate printing data of a partial design having a shape and range matching the shape of the user's nail T. FIG.

印刷制御部315は、印刷ヘッド41を制御する制御手段である。具体的には、印刷制御部315は、印刷データ生成部314において生成された印刷用データに基づいて印刷部40に制御信号を出力し、爪Tに対してこの印刷用データにしたがった印刷を施すように印刷部40のX方向移動モータ46、Y方向移動モータ48、印刷ヘッド41等を制御する。 The print control unit 315 is control means for controlling the print head 41 . Specifically, the print control unit 315 outputs a control signal to the print unit 40 based on the print data generated by the print data generation unit 314, and prints the nail T according to the print data. The X-direction movement motor 46, the Y-direction movement motor 48, the print head 41, etc. of the printing unit 40 are controlled so as to perform the printing.

前述のように、本実施形態では印刷装置1が端末装置7と連携して動作するようになっている。
端末装置7は、例えばスマートフォン等の携帯端末装置である。なお、端末装置7はスマートフォンに限定されない。例えばタブレット型のパーソナルコンピュータ(以下において「PC」とする。)やノート型のPC、据置型のPC、ゲーム用の端末装置等であってもよい。
図2に示すように、端末装置7は、操作部71、表示部72、通信部73及び制御装置80等を備えている。
As described above, in this embodiment, the printing device 1 operates in cooperation with the terminal device 7 .
The terminal device 7 is, for example, a mobile terminal device such as a smart phone. Note that the terminal device 7 is not limited to a smart phone. For example, it may be a tablet personal computer (hereinafter referred to as "PC"), a notebook PC, a stationary PC, a game terminal device, or the like.
As shown in FIG. 2, the terminal device 7 includes an operation section 71, a display section 72, a communication section 73, a control device 80, and the like.

操作部71は、ユーザの操作に応じて各種の入力・設定等を行うことができるようになっており、例えば表示部72の表面に一体的に設けられたタッチパネルである。操作部71が操作されると、当該操作に対応する入力信号が制御部81に送信される。
表示部72に構成されるタッチパネルには、後述する表示制御部812の制御にしたがって各種の操作画面が表示され、ユーザはタッチパネルへのタッチ操作によって各種の入力・設定等の操作を行うことができる。
なお、各種の入力・設定等の操作を行う操作部71はタッチパネルである場合に限定されず、例えば各種の操作ボタンやキーボード等が操作部71として設けられていてもよい。
The operation unit 71 can perform various inputs and settings according to user's operations, and is, for example, a touch panel integrally provided on the surface of the display unit 72 . When the operation portion 71 is operated, an input signal corresponding to the operation is transmitted to the control portion 81 .
Various operation screens are displayed on the touch panel configured in the display unit 72 according to the control of the display control unit 812, which will be described later, and the user can perform various operations such as input and setting by touching the touch panel. .
Note that the operation unit 71 for performing various input/setting operations is not limited to a touch panel, and various operation buttons, a keyboard, and the like may be provided as the operation unit 71, for example.

本実施形態では、ユーザが操作部71を操作することで、端末装置7から印刷装置1に対して印刷開始等の各種指示が出力されるようになっており、端末装置7は印刷装置1の操作部としても機能する。
また、ユーザが操作部71を操作することで、爪Tに印刷するネイルデザイン(デザイン)を選択すること等ができるようになっている。
In this embodiment, the user operates the operation unit 71 to output various instructions such as printing start from the terminal device 7 to the printing device 1 . It also functions as an operation unit.
Also, the user can select a nail design to be printed on the nail T by operating the operation unit 71 .

表示部72は、例えば液晶ディスプレイ(LCD)、有機ELディスプレイ、その他のフラットディスプレイ等で構成されている。
なお、前述のように、表示部72の表面に各種の入力を行うためのタッチパネルが一体的に構成されていてもよい。この場合には、タッチパネルが操作部71として機能する。
本実施形態では、ユーザが操作部71から入力・選択したネイルデザインや、各種の案内画面、警告表示画面等が表示部72に表示可能となっている。
The display unit 72 is composed of, for example, a liquid crystal display (LCD), an organic EL display, other flat displays, or the like.
Note that, as described above, a touch panel for performing various inputs may be integrally formed on the surface of the display unit 72 . In this case, the touch panel functions as the operation unit 71 .
In this embodiment, the nail design input/selected by the user through the operation unit 71, various guide screens, warning display screens, and the like can be displayed on the display unit 72. FIG.

通信部73は、印刷装置1の通信部14との間で通信可能に構成されたものである。
印刷装置1と端末装置7との間での通信は、前述のように、無線接続方式、有線接続方式のどちらでもよく、具体的な方式は限定されない。通信部73は印刷装置1との間で通信を行うことのできるものであればよく、印刷装置1の通信部14の通信規格と合致するものが適用される。
通信部14は、後述する制御装置80の通信制御部811(図2参照)に接続され、該通信制御部811によって制御される。
The communication section 73 is configured to be able to communicate with the communication section 14 of the printing apparatus 1 .
The communication between the printing device 1 and the terminal device 7 may be, as described above, either a wireless connection method or a wired connection method, and the specific method is not limited. The communication unit 73 can communicate with the printing apparatus 1, and the communication standard of the communication unit 14 of the printing apparatus 1 is applied.
The communication unit 14 is connected to a communication control unit 811 (see FIG. 2) of the control device 80 to be described later, and is controlled by the communication control unit 811 .

図2に示すように、本実施形態の端末装置7の制御装置80は、図示しないCPU(Central Processing Unit)等のプロセッサにより構成される制御部81と、図示しないROM(Read Only Memory)及びRAM(Random Access Memory)等で構成される記憶部82とを備えるコンピュータである。 As shown in FIG. 2, the control device 80 of the terminal device 7 of the present embodiment includes a control unit 81 configured by a processor such as a CPU (Central Processing Unit) (not shown), a ROM (Read Only Memory) and a RAM (not shown). (random access memory) or the like.

記憶部82には、端末装置7の各部を動作させるための各種プログラムや各種データ等が格納されている。
具体的には、本実施形態のROM等には、端末装置7の各部を統括制御するための動作プログラム821aの他、印刷装置1を用いたネイルプリントを行うためのネイルプリントアプリケーションプログラム821b(以下「ネイルプリントAP」とする。)等の各種プログラムが格納されており、制御部81がこれらのプログラムを例えばRAMの作業領域に展開して、プログラムが制御部81において実行されることによって、端末装置7の各部が統括制御されるようになっている。
The storage unit 82 stores various programs, various data, and the like for operating each unit of the terminal device 7 .
Specifically, in the ROM or the like of the present embodiment, in addition to an operation program 821a for controlling each part of the terminal device 7, a nail print application program 821b (hereinafter referred to as a nail print application program 821b) for performing nail printing using the printing device 1 is stored. "Nail print AP") and other various programs are stored. Each part of the device 7 is controlled in an integrated manner.

また、本実施形態の記憶部82には、ネイルデザイン(単にデザインともいう。)のデータを格納するデザイン記憶領域822等が設けられている。
なお、デザイン記憶領域822に格納されるネイルデザイン(デザイン)は、予め用意された既存のデザインであってもよいし、ユーザが自ら作成したデザインであってもよい。また、端末装置7が各種ネットワークに接続可能である場合には、ネットワーク接続可能な図示しないサーバ装置等に記憶されているネイルデザインを取り込むことが可能となっていてもよい。
Further, the storage unit 82 of the present embodiment is provided with a design storage area 822 and the like for storing data of nail designs (also simply referred to as designs).
Note that the nail design (design) stored in the design storage area 822 may be an existing design prepared in advance or a design created by the user himself/herself. In addition, when the terminal device 7 can be connected to various networks, it may be possible to import nail designs stored in a network-connectable server device (not shown) or the like.

端末装置7の制御部81は、機能的に見た場合、通信制御部811、表示制御部812等を備えている。これら通信制御部811、表示制御部812等としての機能は、制御部81のCPUと記憶部82のROMに記憶されたプログラムとの協働によって実現される。なお、端末装置7の制御部81が備える機能はこれに限定されず、その他各種の機能部を備えていてもよい。
通信制御部811は、通信部73の動作を制御するものである。本実施形態では、印刷装置1との間での通信を制御し、印刷装置1に対してネイルデザインのデータ等を送信する。
また、表示制御部812は、表示部72を制御して表示部72に各種の表示画面を表示させる。
The control unit 81 of the terminal device 7 includes a communication control unit 811, a display control unit 812, etc. from a functional point of view. The functions of the communication control unit 811, the display control unit 812, and the like are realized by cooperation between the CPU of the control unit 81 and the programs stored in the ROM of the storage unit 82. FIG. Note that the functions provided by the control unit 81 of the terminal device 7 are not limited to this, and may be provided with various other functional units.
The communication control section 811 controls the operation of the communication section 73 . In this embodiment, communication with the printing device 1 is controlled, and nail design data and the like are transmitted to the printing device 1 .
The display control unit 812 also controls the display unit 72 to display various display screens on the display unit 72 .

次に、図3を参照しつつ、本実施形態における爪輪郭検出装置である制御装置30及びこれを含む印刷装置1による爪輪郭検出方法について説明する。
本実施形態の印刷装置1を用いてネイルプリントを行う場合には、ユーザは、印刷装置1の操作部12等を操作して電源を入れ起動させる。
また、端末装置7についても電源を入れて端末装置7の操作部71からネイルプリント処理の実行を選択する。これによりネイルプリントAP821bが起動する。
ネイルプリントAP821bが起動すると、端末装置7の表示制御部812は表示部72に、下地を塗布された爪Tを含む指Uを印刷装置1の指保持部2に載置するよう指示する指示画面を表示させる。
Next, with reference to FIG. 3, a nail contour detection method by the control device 30 as the nail contour detection device and the printing apparatus 1 including the control device 30 according to the present embodiment will be described.
When performing nail printing using the printing apparatus 1 of the present embodiment, the user operates the operation unit 12 of the printing apparatus 1 to turn on the power.
Also, the power of the terminal device 7 is turned on, and execution of nail print processing is selected from the operation section 71 of the terminal device 7 . This activates the nail print AP 821b.
When the nail print AP 821b is activated, the display control unit 812 of the terminal device 7 displays an instruction screen for instructing the display unit 72 to place the finger U including the nail T coated with the base on the finger holding unit 2 of the printing apparatus 1. display.

指保持部2に指Uが載置されると、図3に示すように、指Uが撮影部50によって撮影され、例えば図4に示すような爪画像(爪Tを含む指Uの画像)が取得される(ステップS1)。そして、サンプリング手段としての爪情報検出部313が撮影部50によって取得された爪画像から爪Tに該当する領域を検出領域Arとして検出(サンプリング)する(ステップS2)。
具体的には、爪情報検出部313は、記憶部32から第1の学習モデルを読み出して爪画像に適用し、爪Tに該当する領域の検出を行う。前述のように、このとき、爪情報検出部313は白色の部分を下地の領域として認識する第1の学習モデル(初期状態の学習モデル)を用いて検出を行う。このため、爪Tに塗布されている下地が白色以外の色である場合、爪情報検出部313によって検出される仮の爪輪郭TLeは、実際の爪輪郭TLほど正確ではなく、図4に示すように、ずれている場合がある。
When the finger U is placed on the finger holding part 2, the finger U is photographed by the photographing part 50 as shown in FIG. is obtained (step S1). Then, the nail information detection unit 313 as sampling means detects (samples) an area corresponding to the nail T from the nail image acquired by the photographing unit 50 as a detection area Ar (step S2).
Specifically, the nail information detection unit 313 reads out the first learning model from the storage unit 32, applies it to the nail image, and detects the region corresponding to the nail T. FIG. As described above, at this time, the nail information detection unit 313 performs detection using the first learning model (initial state learning model) that recognizes the white portion as the base region. Therefore, when the base applied to the nail T is a color other than white, the temporary nail contour TLe detected by the nail information detection unit 313 is not as accurate as the actual nail contour TL, and is shown in FIG. As you can see, there may be deviations.

すなわち、実際に爪Tに塗布されている下地の色が白色ではなく、薄いピンクや薄い緑色等であった場合には、白色の部分を下地の領域として認識するように学習された第1の学習モデルでは爪Tと指U(皮膚)との境界部分まで正確に区別することが難しい。このため、図4に示すように、仮の爪輪郭TLeは、実際の爪輪郭TLよりも内側に入り込んでいたり、実際の爪輪郭TLよりも外側の、実際には指Uである部分にまではみ出していたりする場合も想定される。 That is, when the base color actually applied to the nail T is not white, but is light pink, light green, or the like, the white portion is recognized as the base region. It is difficult for the learning model to accurately distinguish between the nail T and the finger U (skin). Therefore, as shown in FIG. 4, the provisional nail contour TLe extends inside the actual nail contour TL, or extends outside the actual nail contour TL, which is actually the finger U. It is assumed that it may protrude.

サンプリング手段としての爪情報検出部313が検出する検出領域Arは、現状爪Tに塗布されている下地の色に合わせて学習モデルを補正するためのサンプルであり、爪T以外の指U(皮膚)等の部分が含まれると、正しい補正値を得ることができない。このため検出領域Arは、検出精度が比較的高い領域に設定されることが好ましい。
そこで本実施形態では、図4に示すように、サンプリング手段としての爪情報検出部313が検出した仮の爪輪郭TLeの内側領域のうち、境界部分付近を含まない中央部分の所定領域を「爪Tに該当する領域」であるとして、検出領域Arとして検出(サンプリング)する。
The detection area Ar detected by the nail information detection unit 313 as a sampling means is a sample for correcting the learning model according to the color of the base applied to the nail T at present. ) is included, a correct correction value cannot be obtained. For this reason, the detection area Ar is preferably set to an area with relatively high detection accuracy.
Therefore, in the present embodiment, as shown in FIG. 4, of the inner region of the provisional nail contour TLe detected by the nail information detection unit 313 as the sampling means, a predetermined region in the central portion that does not include the vicinity of the boundary portion is defined as a "nail Detected (sampled) as a detection area Ar as being an area corresponding to T.

検出領域Arが検出されると、爪情報検出部313は、画素情報取得手段として検出領域Arの画素値を取得する(ステップS3)。そして、爪情報検出部313は学習モデル生成手段として、検出領域Arの画素値の平均値を下記の式(1)により算出する(ステップS4)。 When the detection area Ar is detected, the nail information detection unit 313 as pixel information obtaining means obtains pixel values of the detection area Ar (step S3). Then, the nail information detection unit 313, as learning model generation means, calculates the average value of the pixel values of the detection area Ar using the following formula (1) (step S4).

Figure 0007151753000001

式(1)において、「F」はステップS2で検出した検出領域Arを示し、「N」は検出領域Arの画素数を示し、「x」は画素値を示している。
式(1)により、検出領域Arの画素値の平均値「mx」が算出される。
画素値がRGBで表されるものである場合、爪情報検出部313は、このような画素値の平均値の算出を、RGBそれぞれについて算出する。
Figure 0007151753000001

In equation (1), "F" indicates the detection area Ar detected in step S2, "N" indicates the number of pixels in the detection area Ar, and "x" indicates the pixel value.
The average value “m x ” of the pixel values in the detection area Ar is calculated by Equation (1).
When the pixel values are represented by RGB, the nail information detection unit 313 calculates the average value of such pixel values for each of RGB.

また爪情報検出部313は、爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素値の期待値の平均値を取得する(ステップS5)。
第1の学習モデルにおける下地塗布領域の画素値の期待値の平均値は、下記の式(2)により算出される。
下記式(2)では、期待値の平均値を算出するにあたり、混合正規分布を構成している正規分布の寄与率を考慮する場合を例示している。各正規分布の寄与率を考慮することは必須ではないが、寄与率を考慮した場合には、混合正規分布の傾向をより適切に反映した平均値を得ることができる。
なお、前述のように、この平均値の算出は予め行って第1の学習モデルに対応付けて記憶させておいてもよい。
Further, the nail information detection unit 313 acquires the average value of the expected pixel values of the base application region in the first learning model for nail contour detection (step S5).
The average value of the expected values of the pixel values of the base coating region in the first learning model is calculated by the following formula (2).
The following formula (2) illustrates a case where the contribution rate of the normal distributions forming the mixed normal distribution is taken into consideration when calculating the average value of the expected values. It is not essential to consider the contribution rate of each normal distribution, but if the contribution rate is taken into consideration, it is possible to obtain an average value that more appropriately reflects the tendency of the mixed normal distribution.
As described above, the average value may be calculated in advance and stored in association with the first learning model.

Figure 0007151753000002

式(2)において、「M」は下地塗布領域の混合正規分布を構成する正規分布の数を示し、「w」は各正規分布の寄与率を示し、「ex」は各正規分布の期待値を示している。
式(2)により、各正規分布の寄与率が考慮された期待値の平均値「mtx」が算出される。
Figure 0007151753000002

In equation (2), “M” indicates the number of normal distributions that make up the mixed normal distribution of the base coating area, “w” indicates the contribution of each normal distribution, and “e x ” indicates the expected value of each normal distribution. value.
The average value “mt x ” of the expected values in which the contribution rate of each normal distribution is taken into account is calculated by Equation (2).

さらに、学習モデル生成手段としての爪情報検出部313は、検出領域Arの画素値の平均値「mx」と、第1の学習モデルにおける下地塗布領域の画素値の期待値の平均値「mtx」との差分を、下記式(3)により算出する(ステップS6)。 Further, the nail information detection unit 313 as a learning model generating means generates an average value “m x ” of pixel values in the detection area Ar and an average value “mt x " is calculated by the following formula (3) (step S6).

Figure 0007151753000003

式(3)により、検出領域Arの画素値の平均値「mx」と、第1の学習モデルにおける下地塗布領域の画素値の期待値の平均値「mtx」との差分「dx」が算出される。
Figure 0007151753000003

According to Equation (3), the difference "d x " between the average value "m x " of the pixel values of the detection area Ar and the average value "mt x " of the expected pixel values of the base coating area in the first learning model. is calculated.

なお、検出領域Arの画素値の平均値「mx」と、第1の学習モデルにおける下地塗布領域の画素値の期待値の平均値「mtx」との差分「dx」がわずかである場合には、爪Tに塗布されている下地の色が、第1の学習モデル(初期状態の学習モデル)において学習されている色(白色等)に近い場合であり、当該第1の学習モデルをそのまま爪輪郭TLの検出に用いても検出精度に支障がない。
このため本実施形態では、差分「dx」について所定の閾値を設定し、爪情報検出部313は、差分「dx」が閾値を超えているか否かを判断する(ステップS7)。この場合の閾値をどの程度とするかは適宜設定される事項である。
そして、差分「dx」が閾値を超えている場合(ステップS7;YES)には、この平均値「mx」と「mtx」との差分「dx」を補正値として、第1の学習モデルにおける下地塗布領域の画素値の期待値を下記の式(4)により補正する(ステップS8)。
Note that the difference “d x ” between the average value “m x ” of the pixel values of the detection area Ar and the average value “mt x ” of the expected pixel values of the base coating area in the first learning model is small. , the color of the base applied to the nail T is close to the color (white, etc.) learned in the first learning model (learning model in the initial state), and the first learning model can be used as it is for detection of the nail contour TL, there is no problem with detection accuracy.
Therefore, in the present embodiment, a predetermined threshold value is set for the difference "d x ", and the nail information detection unit 313 determines whether or not the difference "d x " exceeds the threshold value (step S7). The degree of the threshold in this case is a matter to be appropriately set.
Then, if the difference " dx " exceeds the threshold (step S7; YES), the difference " dx " between the average values " mx " and " mtx " is used as a correction value for the first The expected value of the pixel value of the base coating area in the learning model is corrected by the following formula (4) (step S8).

Figure 0007151753000004

式(4)により、第1の学習モデルにおける下地塗布領域の画素値の期待値「exi」が期待値「ecxi」に補正された新たな学習モデル(第2の学習モデル)が生成される。
そして、爪情報検出部313は、検出手段として補正後の学習モデル(第2の学習モデル)を適用して爪画像から下地が塗布された領域の輪郭を爪輪郭TLとして検出する(ステップS9)。
Figure 0007151753000004

A new learning model (second learning model) in which the expected value “e xi ” of the pixel value of the base coating region in the first learning model is corrected to the expected value “ec xi ” is generated by Equation (4). be.
Then, the nail information detection unit 313 applies the corrected learning model (second learning model) as a detecting means to detect the contour of the area where the foundation is applied from the nail image as the nail contour TL (step S9). .

他方、差分「dx」が閾値を超えていない場合(ステップS7;NO)には、爪情報検出部313は、第1の学習モデルを補正せずに適用して、爪画像から下地が塗布された領域の輪郭を爪輪郭TLとして検出する(ステップS10)。 On the other hand, if the difference “d x ” does not exceed the threshold value (step S7; NO), the nail information detection unit 313 applies the first learning model without correction, and the base is applied from the nail image. Then, the contour of the detected area is detected as the nail contour TL (step S10).

このような処理を行うことで、白色の下地が塗布された領域を抽出するように学習されている第1の学習モデルを有する場合に、実際に爪Tに塗布された下地の色が白色以外であった場合にも、新たな学習モデルを一から生成することなく、その期待値を補正するだけで比較的簡易に対応することができる。 By performing such processing, when the first learning model is trained to extract a region where a white base is applied, the color of the base actually applied to the nail T is not white. , it can be handled relatively easily by correcting the expected value without generating a new learning model from scratch.

以上のように、本実施形態によれば、爪輪郭検出装置である制御装置30が、下地が塗布された爪Tを含む画像から爪Tに該当する領域を検出し、検出された検出領域Arの画素に関する値として画素値を取得して、爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素値と検出領域Arの画素値との差分に基づいて第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する。そして、第2の学習モデルが生成されたときは、この第2の学習モデルを適用して画像から爪輪郭TLの検出を行う。また、第2の学習モデルが生成されなかった場合には、爪輪郭検出用の第1の学習モデルを適用して画像から爪輪郭TLを検出する。
これにより、第1の学習データが学習した色(例えば白色)と異なる色(例えばピンク色)の下地が爪Tに塗布されている場合にも、一から学習モデルを作り直したり、画像に色補正を行うことで対応したりする等の必要がなく、時間や手間をかけずに、高い検出精度で爪輪郭TLを検出することが可能となる。
すなわち、既存の学習済みの学習モデル(第1の学習モデル)は、単なる白色部分の認識にとどまらず、例えば爪Tの端部では少し色が暗めに出る等、爪Tの認識に関して蓄積された各種の情報を含んでいる。この点、一から学習モデルを作り直すと、そうした広い範囲での学習結果を獲得するまでにかなりの時間と手間を要する。
本実施形態のように、第1の学習モデルが学習した色(例えば白色)と異なる色(例えばピンク色)の下地が爪Tに塗布されている場合に、第1の学習モデルを補正して対応することで、こうした学習結果を新しい学習モデルに引き継ぐことができ、全体の精度は低下させずに、爪輪郭TLの検出精度・認識精度を向上させることができる。
As described above, according to the present embodiment, the control device 30, which is a nail contour detection device, detects an area corresponding to the nail T from an image including the nail T to which the foundation is applied, and the detected detection area Ar and corrects the first learning model based on the difference between the pixel value of the base coating region and the pixel value of the detection region Ar in the first learning model for nail contour detection. to generate a second learning model for nail contour detection. Then, when the second learning model is generated, this second learning model is applied to detect the nail contour TL from the image. If the second learning model is not generated, the first learning model for nail contour detection is applied to detect the nail contour TL from the image.
As a result, even when the nail T is coated with a base color (eg, pink) different from the color (eg, white) learned by the first learning data, the learning model can be recreated from scratch, or the image can be subjected to color correction. , it is possible to detect the nail contour TL with high detection accuracy without taking time and effort.
That is, the existing learned learning model (first learning model) is not limited to simply recognizing the white portion, and has accumulated information regarding the recognition of the nail T, such as the color appearing slightly darker at the end of the nail T, for example. Contains various types of information. In this regard, if a learning model is recreated from scratch, it takes a considerable amount of time and effort to obtain learning results in such a wide range.
As in the present embodiment, when the base of the nail T is applied with a different color (eg, pink) from the color (eg, white) learned by the first learning model, the first learning model is corrected. By doing so, it is possible to take over such learning results to a new learning model, and improve the detection accuracy and recognition accuracy of the nail contour TL without lowering the overall accuracy.

また本実施形態では、サンプリング手段としての制御部31(爪情報検出部313)は、爪輪郭検出用の第1の学習モデルを用いて爪Tに該当する領域を検出領域Arとして検出する。
第1の学習データが学習した色(例えば白色)と異なる色の下地が爪Tに塗布されている場合であっても、その色が爪Tよりも指U(皮膚)の色に近いような場合でない限りは、爪Tのおよその位置を特定することができる。そのため、仮の爪輪郭TLeを検出して、爪輪郭TLeの内側領域の中央部分等を検出領域Arとすることにより、容易に爪T以外の領域を含まない適切な領域をサンプリングすることができる。
Further, in the present embodiment, the control unit 31 (nail information detection unit 313) as sampling means detects the area corresponding to the nail T as the detection area Ar using the first learning model for nail contour detection.
Even if the nail T is coated with a base color different from the color (e.g., white) learned by the first learning data, the color is closer to the color of the finger U (skin) than the nail T. Unless otherwise the approximate position of the claw T can be identified. Therefore, by detecting the temporary nail contour TLe and setting the central portion of the inner region of the nail contour TLe as the detection region Ar, it is possible to easily sample an appropriate region that does not include regions other than the nail T. .

また本実施形態において、学習モデル生成手段としての制御部31(爪情報検出部313)は、検出領域Arの画素値について平均値を取得し、当該平均値と爪輪郭検出用の第1の学習モデルにおける下地塗布領域の混合正規分布を構成する各正規分布の期待値の平均値との差分を算出して、これを第1の学習モデルを補正する補正値とする。
このように、本実施形態では、学習データの補正は、各正規分布の期待値のみを補正し、分散は補正しない。
期待値のみでなく分散をも補正する場合には、爪Tの領域全体を見て補正することが望ましいが、第1の学習モデルが学習した色(例えば白色)と異なる色の下地が爪Tに塗布されている場合に、爪Tの領域全体を正確に切り出すことは難しい。
この点、本実施形態の手法では、分散を考慮せずに期待値のみをずらす補正を行う。このため、確実に爪Tであると思われる領域を検出領域Arとして切り出す(サンプリングする)だけで学習モデルを補正することが可能となり、効率よく、高精度の学習モデル(補正後の第2の学習モデル)を生成することができる。
Further, in the present embodiment, the control unit 31 (nail information detection unit 313) as learning model generation means acquires an average value of pixel values in the detection area Ar, and uses the average value and the first learning for nail contour detection. A difference from the average value of the expected values of each normal distribution constituting the mixed normal distribution of the undercoating region in the model is calculated and used as a correction value for correcting the first learning model.
Thus, in this embodiment, correction of learning data corrects only the expected value of each normal distribution, and does not correct variance.
When correcting not only the expected value but also the variance, it is desirable to correct the entire region of the nail T. It is difficult to accurately cut out the entire area of the nail T when it is applied to the .
In this regard, in the method of the present embodiment, correction is performed by shifting only the expected value without considering the variance. For this reason, it is possible to correct the learning model simply by cutting out (sampling) the area that is surely considered to be the nail T as the detection area Ar, and the learning model can be efficiently and accurately obtained (the second correction after correction). learning model) can be generated.

また、学習モデル生成手段として制御部31が第2の学習モデルを生成したときは、制御部31は記憶制御手段として、この第2の学習モデルを、第1の学習モデルとして記憶部32に記憶させてもよい。
このように、第2の学習モデルが生成されたときには第1の学習モデルを第2の学習モデルで置き換える場合には、記憶部32に記憶される学習モデルの数が増加しないため、少ないメモリ容量で対応することができる。
Further, when the control unit 31 as learning model generation means generates the second learning model, the control unit 31 functions as storage control means and stores this second learning model in the storage unit 32 as the first learning model. You may let
In this way, when the first learning model is replaced with the second learning model when the second learning model is generated, the number of learning models stored in the storage unit 32 does not increase. can be dealt with.

また、本実施形態では、検出手段としての制御部31は、第1の学習モデルにおける下地塗布領域の画素に関する値と検出領域Arの画素に関する値との差分が予め定められた閾値を超えている場合、第2の学習モデルを適用して画像から下地が塗布された領域の輪郭を爪輪郭として検出し、第1の学習モデルにおける下地塗布領域の画素に関する値と検出領域Arの画素に関する値との差分が予め定められた閾値を超えていない場合、第1の学習モデルを適用して画像から下地が塗布された領域の輪郭を爪輪郭TLとして検出する。
第1の学習モデルにおける下地塗布領域の画素に関する値と検出領域Arの画素に関する値との差分がわずかである場合には、爪Tに塗布されている下地の色が、第1の学習モデル(初期状態の学習モデル)において学習されている色(白色等)に近い場合であり、当該第1の学習モデルをそのまま爪輪郭TLの検出に用いても検出精度に支障がない。この場合には第1の学習モデルを補正せずにそのまま適用することで、処理を簡略化し、迅速に爪輪郭検出処理を行うことができる。
In addition, in the present embodiment, the control unit 31 as the detection unit determines that the difference between the value regarding the pixels in the base coating region and the value regarding the pixels in the detection region Ar in the first learning model exceeds a predetermined threshold value. In this case, the second learning model is applied to detect the contour of the base-applied area from the image as the nail contour, and the values of the pixels of the base-applied area and the pixels of the detection area Ar in the first learning model are calculated. If the difference does not exceed a predetermined threshold value, the first learning model is applied to detect the contour of the ground-applied region from the image as the nail contour TL.
When the difference between the value of the pixel in the base application region and the value of the pixel in the detection region Ar in the first learning model is small, the color of the base applied to the nail T is different from that of the first learning model ( This is a case where the color is close to the color (white, etc.) learned in the learning model in the initial state), and even if the first learning model is used as it is for detecting the nail contour TL, there is no problem with detection accuracy. In this case, by applying the first learning model as it is without correction, the processing can be simplified and the nail contour detection processing can be performed quickly.

また、本実施形態のような爪輪郭検出装置を印刷装置1に適用した場合には、印刷手段としての印刷部40が、爪輪郭検出装置である制御装置30によって検出された爪輪郭TLの内側領域を印刷対象領域として印刷を行う。
これにより、新たに一から学習モデルを構築する場合のように、時間や手間をかけることなく、高い精度で検出された爪輪郭TLの内側領域に印刷を行うことができる。
このため、爪Tにどのような色の下地が塗布されている場合でも、塗残しやはみ出しのない、高品位のネイルプリントを爪Tに施すことができる。
Further, when the nail contour detection device as in the present embodiment is applied to the printing device 1, the printing unit 40 as the printing means detects the inner side of the nail contour TL detected by the control device 30 as the nail contour detection device. Printing is performed using the area as a print target area.
As a result, printing can be performed on the inner region of the nail contour TL that has been detected with high accuracy without taking time and effort, unlike the case of constructing a new learning model from scratch.
Therefore, regardless of the color of the base applied to the nail T, a high-quality nail print can be applied to the nail T without any undercoating or protrusion.

なお、以上本発明の実施形態について説明したが、本発明は、かかる実施形態に限定されず、その要旨を逸脱しない範囲で、種々変形が可能であることは言うまでもない。 Although the embodiments of the present invention have been described above, the present invention is not limited to such embodiments, and it goes without saying that various modifications are possible without departing from the scope of the invention.

例えば、本実施形態では、サンプリング手段としての爪情報検出部313が検出領域Arをサンプリング(検出)する際には、下地が白色である場合について学習した第1の学習モデルがデフォルトとして適用される例を示したが、検出領域Arをサンプリング(検出)する際に適用される学習モデルはこれに限定されない。
例えば、ピンク系の下地が塗布された、ブルー系の下地が塗布された等が事前に分かっている場合であれば、これらに対応して新しく生成された学習モデルを検出領域Arのサンプリングに用いてもよい。なお、どのような色味の下地を爪Tに塗布したかの情報は、ユーザが操作部12等から入力してもよい。
For example, in the present embodiment, when the nail information detection unit 313 as the sampling means samples (detects) the detection area Ar, the first learning model learned for the case where the background is white is applied as a default. Although an example is shown, the learning model applied when sampling (detecting) the detection area Ar is not limited to this.
For example, if it is known in advance that a pink undercoat or a blue undercoat has been applied, a learning model newly generated corresponding to these is used for sampling the detection area Ar. may The user may input information about the color of the base applied to the nail T from the operation unit 12 or the like.

また本実施形態では、サンプリング手段としての爪情報検出部313が、第1の学習モデルを用いて仮の爪輪郭TLeを検出し、この爪輪郭TLeの内側領域から爪Tに該当する領域を検出領域Arとして検出(サンプリング)する場合を例示したが、検出領域Arの検出(サンプリング)の仕方はこれに限定されない。サンプリング手段としての爪情報検出部313は、爪Tを含む画像中の所定の領域を爪Tに該当する領域として検出してもよい。
例えば、爪Tが配置されているおよその位置が分かる場合には、爪画像中、爪Tが配置されている可能性が高い領域の中に検出領域Arを設定してもよい。
具体的には指保持部2に指Uを保持させ、爪先が爪載置部25に載るように爪Tが配置される場合に、図5に示すように、指Uの第一関節から上辺りの爪Tを含む指Uが収まるように爪画像を撮影する。そしてこの爪画像に、爪Tの幅方向の中心を通る縦方向の中心線Dc及び爪画像を上下に分ける横方向の中心線Hcを設定し、中心線Hcよりも上(すなわち指先方向)であって中心線Dcを通る所定の領域を検出領域Arとして検出(サンプリング)する。
この場合には、第1の学習モデル(初期状態の学習モデル)等を用いた処理を行うことなく、画像のみから検出領域Arを切り出すことができる。
このため、例えば爪Tに塗布されている下地が第1の学習モデル(初期状態の学習モデル)では対応できないような色である場合(例えば第1の学習モデルが白色で学習している場合に青色の下地が塗布されているような場合)にも当該下地が塗布された爪Tが位置する領域を適切に検出領域Arとして検出(サンプリング)して、本実施形態の爪輪郭検出処理を行うことができる。
Further, in the present embodiment, the nail information detection unit 313 as sampling means detects the provisional nail contour TLe using the first learning model, and detects the region corresponding to the nail T from the inner region of the nail contour TLe. Although the case of detecting (sampling) as the area Ar has been exemplified, the method of detecting (sampling) the detection area Ar is not limited to this. The nail information detection unit 313 as sampling means may detect a predetermined area in the image including the nail T as the area corresponding to the nail T. FIG.
For example, if the approximate position of the nail T is known, the detection area Ar may be set in a region of the nail image where the nail T is likely to be placed.
Specifically, when the finger U is held by the finger holding portion 2 and the nail T is arranged so that the tip of the nail rests on the nail placing portion 25, as shown in FIG. A nail image is photographed so that the finger U including the nail T in the vicinity is accommodated. Then, a vertical center line Dc passing through the center of the nail T in the width direction and a horizontal center line Hc dividing the nail image vertically are set on the nail image, and above the center line Hc (that is, in the direction of the fingertip) A predetermined area passing through the center line Dc is detected (sampled) as a detection area Ar.
In this case, the detection area Ar can be cut out only from the image without performing processing using the first learning model (learning model in the initial state) or the like.
For this reason, for example, when the base applied to the nail T is a color that cannot be handled by the first learning model (learning model in the initial state) (for example, when the first learning model is learning in white, Even when a blue undercoat is applied, the area in which the nail T coated with the undercoat is positioned is appropriately detected (sampled) as the detection area Ar, and the nail contour detection processing of the present embodiment is performed. be able to.

また本実施形態では、ユーザ等が下地を手塗で爪Tに施す場合を例示したが、下地は手塗で施される場合に限定されない。
例えば、ネイルデザインを印刷する印刷装置1とは別の下地印刷用の印刷装置によって自動的に下地が塗布されてもよい。
また、印刷装置1が、印刷ヘッド41として、ネイルデザインを印刷するためのカラー印刷用ヘッドと、下地を印刷するための下地印刷用のヘッドとを備えていてもよい。
印刷装置1が下地印刷用のヘッドを備えている場合、下地印刷用の液剤の種類や色の情報を印刷装置1の側で把握できる場合には、当該情報に基づいて下地の色に近いデータで学習した学習モデルを用いて仮の爪輪郭TLeを検出し、この爪輪郭TLeの内側領域から爪Tに該当する領域を検出領域Arとして検出(サンプリング)してもよい。
Further, in the present embodiment, the case where the user or the like applies the base to the nail T by hand is illustrated, but the base is not limited to the case where the base is applied by hand.
For example, the base may be automatically applied by a printing device for base printing that is separate from the printing device 1 that prints the nail design.
Further, the printing apparatus 1 may include, as the print head 41, a color printing head for printing the nail design and a base printing head for printing the base.
If the printing apparatus 1 is equipped with a base printing head, and if information on the type and color of the liquid material for the base printing can be grasped on the side of the printing apparatus 1, data close to the color of the base is obtained based on the information. A provisional nail contour TLe may be detected using the learning model learned in 1, and the region corresponding to the nail T may be detected (sampled) as the detection region Ar from the inner region of the nail contour TLe.

また、本実施形態では、爪輪郭検出用の学習モデルとして混合正規分布モデルを用い、混合正規分布の期待値を爪Tに塗布されている下地の色に応じて移動させることで学習モデルを補正する場合について説明したが、爪輪郭検出用の学習モデルは混合正規分布モデルに限定されない。
例えば爪輪郭検出用の学習モデルとしてヒストグラムを用いてもよい。この場合には、ヒストグラムの最頻値を基準に爪Tに塗布されている下地の色に応じて移動させる等の補正手法を用いることができる。
Further, in this embodiment, a mixed normal distribution model is used as a learning model for nail contour detection, and the learning model is corrected by moving the expected value of the mixed normal distribution according to the color of the base applied to the nail T. However, the learning model for nail contour detection is not limited to the mixed normal distribution model.
For example, a histogram may be used as a learning model for nail contour detection. In this case, a correction method such as moving according to the color of the base applied to the nail T based on the mode value of the histogram can be used.

また、本実施形態では、印刷装置1の制御装置30が爪輪郭検出装置として機能し、爪画像から爪輪郭TL等の爪情報の取得や学習モデルの補正を行う爪情報検出部313を備え、全ての処理が印刷装置1において完結する場合を例示したが、爪輪郭検出装置は、印刷装置1の制御装置30に限定されない。
例えば、端末装置7の制御装置80が爪輪郭検出装置として機能し、爪画像から爪輪郭TL等の爪情報の取得や学習モデルの補正を行う爪情報検出部を有してもよい。この場合には、爪輪郭の検出を行うための爪輪郭検出プログラムが端末装置7の制御装置80の記憶部82(記憶部82のプログラム記憶領域821)に格納される。
さらに、端末装置7の制御装置80が印刷データ生成部等の機能部を有してもよい。
この場合には、印刷装置1の撮影部50で取得された爪画像が端末装置7に送られ、端末装置7の制御装置80において、学習モデルの補正や爪情報の検出、印刷用データの生成等が行われる。
印刷用データが端末装置7側で生成される場合には、生成された印刷用データが印刷装置1に送信されて、印刷装置1の印刷部40がこれに基づいて印刷を行う。
このように、印刷や撮影以外の制御動作を端末装置7側で行うことで、印刷装置1を簡易な構成とすることができる。
Further, in the present embodiment, the control device 30 of the printing apparatus 1 functions as a nail contour detection device, and includes a nail information detection unit 313 that acquires nail information such as the nail contour TL from the nail image and corrects the learning model. Although the case where all the processing is completed in the printing device 1 has been illustrated, the nail contour detection device is not limited to the control device 30 of the printing device 1 .
For example, the control device 80 of the terminal device 7 may function as a nail contour detection device and have a nail information detection unit that acquires nail information such as the nail contour TL from the nail image and corrects the learning model. In this case, a nail contour detection program for detecting the nail contour is stored in the storage section 82 (the program storage area 821 of the storage section 82) of the control device 80 of the terminal device 7. FIG.
Furthermore, the control device 80 of the terminal device 7 may have a functional section such as a print data generation section.
In this case, the nail image acquired by the imaging unit 50 of the printing device 1 is sent to the terminal device 7, and the control device 80 of the terminal device 7 corrects the learning model, detects nail information, and generates printing data. etc. are performed.
When the print data is generated on the terminal device 7 side, the generated print data is sent to the printer 1, and the printing unit 40 of the printer 1 performs printing based on this.
By performing control operations other than printing and photographing on the terminal device 7 side in this way, the configuration of the printing device 1 can be simplified.

以上本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得手段と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成手段と、
前記学習モデル生成手段によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出手段と、
を備えることを特徴とする爪輪郭検出装置。
<請求項2>
前記画像から前記爪に該当する領域を前記検出領域として検出するサンプリング手段を備えることを特徴とする請求項1に記載の爪輪郭検出装置。
<請求項3>
前記サンプリング手段は、爪輪郭検出用の前記第1の学習モデルを用いて前記爪に該当する領域を検出することを特徴とする請求項2に記載の爪輪郭検出装置。
<請求項4>
前記サンプリング手段は、前記爪を含む画像中の予め定められた領域を前記爪に該当する領域として検出することを特徴とする請求項2に記載の爪輪郭検出装置。
<請求項5>
前記学習モデル生成手段は、前記検出領域の前記画素に関する値について平均値を取得し、当該平均値と爪輪郭検出用の前記第1の学習モデルにおける下地塗布領域の混合正規分布を構成する各正規分布の期待値の平均値との差分を算出して、これを前記第1の学習モデルを補正する補正値とすることを特徴とする請求項1から請求項4のいずれか一項に記載の爪輪郭検出装置。
<請求項6>
前記学習モデル生成手段によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを、前記第1の学習モデルとして前記記憶部に記憶させる記憶制御手段を備えることを特徴とする請求項1から請求項5のいずれか一項に記載の爪輪郭検出装置。
<請求項7>
前記検出手段は、
前記第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分が予め定められた閾値を超えている場合、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出し、
前記第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分が予め定められた閾値を超えていない場合、前記第1の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出することを特徴とする請求項1から請求項6のいずれか一項に記載の爪輪郭検出装置。
<請求項8>
請求項1から請求項7のいずれか一項に記載の爪輪郭検出装置と、
前記爪輪郭検出装置によって検出された前記爪輪郭の内側領域を印刷対象領域として印刷を行う印刷手段と、
を備えることを特徴とする印刷装置。
<請求項9>
下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得工程と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成工程と、
前記学習モデル生成工程において前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出工程と、
を含むことを特徴とする爪輪郭検出方法。
<請求項10>
コンピュータに、
下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得機能と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成機能と、
前記学習モデル生成機能によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出機能と、
を実現させることを特徴とするプログラム。
Although several embodiments of the present invention have been described above, the scope of the present invention is not limited to the above-described embodiments, and includes the scope of the invention described in the claims and equivalent ranges thereof. .
The invention described in the scope of claims originally attached to the application form of this application is additionally described below. The claim numbers in the appendix are as in the claims originally attached to the filing of this application.
[Appendix]
<Claim 1>
a pixel information obtaining means for obtaining values relating to pixels in a detection area detected from an image including a nail to which a foundation is applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. learning model generation means for generating a second learning model for detection;
detection means for detecting, when the learning model generating means generates the second learning model, applying the second learning model to detect, as a nail contour, a contour of an area where the base is applied from the image;
A nail contour detection device comprising:
<Claim 2>
2. A nail contour detection apparatus according to claim 1, further comprising sampling means for detecting an area corresponding to said nail from said image as said detection area.
<Claim 3>
3. The nail contour detecting device according to claim 2, wherein said sampling means detects the region corresponding to said nail using said first learning model for nail contour detection.
<Claim 4>
3. The nail contour detection apparatus according to claim 2, wherein said sampling means detects a predetermined area in an image including said nail as an area corresponding to said nail.
<Claim 5>
The learning model generating means obtains an average value of the values of the pixels in the detection area, and obtains the average value and each normal that constitutes a mixed normal distribution of the base application area in the first learning model for nail contour detection. 5. The method according to any one of claims 1 to 4, wherein a difference between an expected value of the distribution and an average value is calculated and used as a correction value for correcting the first learning model. Nail contour detector.
<Claim 6>
A memory control means for storing the second learning model in the storage unit as the first learning model when the second learning model is generated by the learning model generating means. The nail contour detection device according to any one of claims 1 to 5.
<Claim 7>
The detection means is
When the difference between the value of the pixel in the base coating region and the value of the pixel in the detection region in the first learning model exceeds a predetermined threshold value, the second learning model is applied to the image from the The contour of the area where the base is applied is detected as the nail contour,
When the difference between the value of the pixel in the base coating region and the value of the pixel in the detection region in the first learning model does not exceed a predetermined threshold value, the first learning model is applied to the image from the 7. The nail contour detecting device according to any one of claims 1 to 6, wherein the contour of the area where the foundation is applied is detected as the nail contour.
<Claim 8>
a nail contour detection device according to any one of claims 1 to 7;
printing means for printing an area inside the nail contour detected by the nail contour detecting device as a print target area;
A printing device comprising:
<Claim 9>
a pixel information acquisition step of acquiring values relating to pixels in the detection area detected from the image including the nail with the base applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. a learning model generation step of generating a second learning model for detection;
a detection step of applying the second learning model to detect, as a nail contour, a contour of an area where the foundation is applied from the image when the second learning model is generated in the learning model generating step;
A nail contour detection method, comprising:
<Claim 10>
to the computer,
a pixel information acquisition function for acquiring values related to pixels in a detection area detected from an image including a nail with a base applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. a learning model generation function that generates a second learning model for detection;
a detecting function for detecting, when the second learning model is generated by the learning model generating function, applying the second learning model to detect, as a nail contour, a contour of an area where the base is applied from the image;
A program characterized by realizing

1 印刷装置
7 端末装置
31 制御部
32 記憶部
40 印刷部
313 爪情報検出部
314 印刷データ生成部
315 印刷制御部
322 学習モデル記憶領域
323 爪情報記憶領域
Ar 検出領域
TL 爪輪郭
TLe 仮の爪輪郭
T 爪
U 指
1 printing device 7 terminal device 31 control unit 32 storage unit 40 printing unit 313 nail information detection unit 314 print data generation unit 315 print control unit 322 learning model storage area 323 nail information storage area Ar detection area TL nail contour TLe temporary nail contour T Nail U Finger

Claims (10)

下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得手段と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成手段と、
前記学習モデル生成手段によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出手段と、
を備えることを特徴とする爪輪郭検出装置。
a pixel information obtaining means for obtaining values relating to pixels in a detection area detected from an image including a nail to which a foundation is applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. learning model generation means for generating a second learning model for detection;
detection means for detecting, when the learning model generating means generates the second learning model, applying the second learning model to detect, as a nail contour, a contour of an area where the base is applied from the image;
A nail contour detection device comprising:
前記画像から前記爪に該当する領域を前記検出領域として検出するサンプリング手段を備えることを特徴とする請求項1に記載の爪輪郭検出装置。 2. A nail contour detection apparatus according to claim 1, further comprising sampling means for detecting an area corresponding to said nail from said image as said detection area. 前記サンプリング手段は、爪輪郭検出用の前記第1の学習モデルを用いて前記爪に該当する領域を検出することを特徴とする請求項2に記載の爪輪郭検出装置。 3. The nail contour detecting device according to claim 2, wherein said sampling means detects the region corresponding to said nail using said first learning model for nail contour detection. 前記サンプリング手段は、前記爪を含む画像中の予め定められた領域を前記爪に該当する領域として検出することを特徴とする請求項2に記載の爪輪郭検出装置。 3. The nail contour detection apparatus according to claim 2, wherein said sampling means detects a predetermined area in an image including said nail as an area corresponding to said nail. 前記学習モデル生成手段は、前記検出領域の前記画素に関する値について平均値を取得し、当該平均値と爪輪郭検出用の前記第1の学習モデルにおける下地塗布領域の混合正規分布を構成する各正規分布の期待値の平均値との差分を算出して、これを前記第1の学習モデルを補正する補正値とすることを特徴とする請求項1から請求項4のいずれか一項に記載の爪輪郭検出装置。 The learning model generating means obtains an average value of the values of the pixels in the detection area, and obtains the average value and each normal that constitutes a mixed normal distribution of the base application area in the first learning model for nail contour detection. 5. The method according to any one of claims 1 to 4, wherein a difference between an expected value of the distribution and an average value is calculated and used as a correction value for correcting the first learning model. Nail contour detector. 前記学習モデル生成手段によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを、前記第1の学習モデルとして前記記憶部に記憶させる記憶制御手段を備えることを特徴とする請求項1から請求項5のいずれか一項に記載の爪輪郭検出装置。 A memory control means for storing the second learning model in the storage unit as the first learning model when the second learning model is generated by the learning model generating means. The nail contour detection device according to any one of claims 1 to 5. 前記検出手段は、
前記第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分が予め定められた閾値を超えている場合、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出し、
前記第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分が予め定められた閾値を超えていない場合、前記第1の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出することを特徴とする請求項1から請求項6のいずれか一項に記載の爪輪郭検出装置。
The detection means is
When the difference between the value of the pixel in the base coating region and the value of the pixel in the detection region in the first learning model exceeds a predetermined threshold value, the second learning model is applied to the image from the The contour of the area where the base is applied is detected as the nail contour,
When the difference between the value of the pixel in the base coating region and the value of the pixel in the detection region in the first learning model does not exceed a predetermined threshold value, the first learning model is applied to the image from the 7. The nail contour detecting device according to any one of claims 1 to 6, wherein the contour of the area where the foundation is applied is detected as the nail contour.
請求項1から請求項7のいずれか一項に記載の爪輪郭検出装置と、
前記爪輪郭検出装置によって検出された前記爪輪郭の内側領域を印刷対象領域として印刷を行う印刷手段と、
を備えることを特徴とする印刷装置。
a nail contour detection device according to any one of claims 1 to 7;
printing means for printing an area inside the nail contour detected by the nail contour detecting device as a print target area;
A printing device comprising:
下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得工程と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成工程と、
前記学習モデル生成工程において前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出工程と、
を含むことを特徴とする爪輪郭検出方法。
a pixel information acquisition step of acquiring values relating to pixels in the detection area detected from the image including the nail with the base applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. a learning model generation step of generating a second learning model for detection;
a detection step of applying the second learning model to detect, as a nail contour, a contour of an area where the foundation is applied from the image when the second learning model is generated in the learning model generating step;
A nail contour detection method, comprising:
コンピュータに、
下地が塗布された爪を含む画像から検出された検出領域の画素に関する値を取得する画素情報取得機能と、
記憶部に記憶された爪輪郭検出用の第1の学習モデルにおける下地塗布領域の画素に関する値と前記検出領域の画素に関する値との差分に基づいて前記第1の学習モデルを補正して爪輪郭検出用の第2の学習モデルを生成する学習モデル生成機能と、
前記学習モデル生成機能によって前記第2の学習モデルが生成されたときは、前記第2の学習モデルを適用して前記画像から下地が塗布された領域の輪郭を爪輪郭として検出する検出機能と、
を実現させることを特徴とするプログラム。
to the computer,
a pixel information acquisition function for acquiring values related to pixels in a detection area detected from an image including a nail with a base applied;
Nail contour detection by correcting the first learning model based on the difference between the value of the pixel in the base coating area and the value of the pixel in the detection area in the first learning model for detecting the nail contour stored in the storage unit. a learning model generation function that generates a second learning model for detection;
a detecting function for detecting, when the second learning model is generated by the learning model generating function, applying the second learning model to detect, as a nail contour, a contour of an area where the base is applied from the image;
A program characterized by realizing
JP2020170515A 2020-10-08 2020-10-08 Nail contour detection device, printing device, nail contour detection method and program Active JP7151753B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020170515A JP7151753B2 (en) 2020-10-08 2020-10-08 Nail contour detection device, printing device, nail contour detection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020170515A JP7151753B2 (en) 2020-10-08 2020-10-08 Nail contour detection device, printing device, nail contour detection method and program

Publications (2)

Publication Number Publication Date
JP2022062482A JP2022062482A (en) 2022-04-20
JP7151753B2 true JP7151753B2 (en) 2022-10-12

Family

ID=81211002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020170515A Active JP7151753B2 (en) 2020-10-08 2020-10-08 Nail contour detection device, printing device, nail contour detection method and program

Country Status (1)

Country Link
JP (1) JP7151753B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012055467A (en) 2010-09-08 2012-03-22 Casio Computer Co Ltd Nail printing device and printing control method
JP2018055364A (en) 2016-09-28 2018-04-05 カシオ計算機株式会社 Server device, nail region detecting system and drawing device
JP2019113972A (en) 2017-12-22 2019-07-11 カシオ計算機株式会社 Contour detection device, drawing device, contour detection method and contour detection program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012055467A (en) 2010-09-08 2012-03-22 Casio Computer Co Ltd Nail printing device and printing control method
JP2018055364A (en) 2016-09-28 2018-04-05 カシオ計算機株式会社 Server device, nail region detecting system and drawing device
JP2019113972A (en) 2017-12-22 2019-07-11 カシオ計算機株式会社 Contour detection device, drawing device, contour detection method and contour detection program

Also Published As

Publication number Publication date
JP2022062482A (en) 2022-04-20

Similar Documents

Publication Publication Date Title
CN109123989B (en) Drawing system, terminal device, and recording medium
US9603431B2 (en) Nail design device, nail printing apparatus, nail design method, and computer-readable recording medium storing nail design program
JP2022169545A (en) Drawing device, drawing method, and program
JP7151753B2 (en) Nail contour detection device, printing device, nail contour detection method and program
US11559995B2 (en) Printer and printing method
JP7310198B2 (en) NAIL PRINTING DEVICE, DRAWING SYSTEM, TERMINAL DEVICE, DRAWING METHOD AND DRAWING PROGRAM
JP6958336B2 (en) Drawing system, drawing device and terminal device
JP7124477B2 (en) Drawing device, drawing method and program
US11738576B2 (en) Printing device and nail posture confirmation method
CN113370667B (en) Printing apparatus, printing method, and recording medium having program recorded thereon
US20220379638A1 (en) Printing device, printing method, and storage medium
JP7226412B2 (en) DISPLAY DEVICE, PRINTING DEVICE, PRINTING SYSTEM, DISPLAY METHOD AND PROGRAM
CN113665252B (en) Printing apparatus, control method of printing apparatus, and recording medium
JP7173256B2 (en) Drawing system and drawing control method
JP7439807B2 (en) Electronic devices, determination methods and programs
US20220363052A1 (en) Printing device, terminal device, printing system, printing method, and storage medium
JP7201011B2 (en) PRINTING DEVICE, PRINTING METHOD AND PROGRAM
JP7087593B2 (en) Nail printing device, finger type determination method, and program
JP7120269B2 (en) PRINTING DEVICE, PRINTING SYSTEM, PRINT CONTROL METHOD AND PROGRAM
JP7334826B2 (en) nail printing device
JP2021145892A (en) Printer, printing control method, and program
JP2024071809A (en) Electronic device, control method, and program
JP2022189245A (en) Electronic equipment
JP2023040826A (en) Determination device, printing device, determination method, and program
JP2019180561A (en) Nail progress prediction system and nail progress prediction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220912

R150 Certificate of patent or registration of utility model

Ref document number: 7151753

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150