JP5203271B2 - Display information forming apparatus and system - Google Patents

Display information forming apparatus and system Download PDF

Info

Publication number
JP5203271B2
JP5203271B2 JP2009076380A JP2009076380A JP5203271B2 JP 5203271 B2 JP5203271 B2 JP 5203271B2 JP 2009076380 A JP2009076380 A JP 2009076380A JP 2009076380 A JP2009076380 A JP 2009076380A JP 5203271 B2 JP5203271 B2 JP 5203271B2
Authority
JP
Japan
Prior art keywords
unit
information
region
nail
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009076380A
Other languages
Japanese (ja)
Other versions
JP2010231352A (en
Inventor
晴久 加藤
恒 河井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009076380A priority Critical patent/JP5203271B2/en
Publication of JP2010231352A publication Critical patent/JP2010231352A/en
Application granted granted Critical
Publication of JP5203271B2 publication Critical patent/JP5203271B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は表示情報形成装置およびシステムに関し、特に、撮像部と撮影対象との間の空間的位置関係を推定することによって表示部に表示される情報を制御できる表示情報形成装置およびシステムに関するものである。   The present invention relates to a display information forming apparatus and system, and more particularly, to a display information forming apparatus and system capable of controlling information displayed on a display unit by estimating a spatial positional relationship between an imaging unit and an imaging target. is there.

近年、煌びやかに装飾された付け爪をつけておしゃれを楽しむネイルアートが普及している。   In recent years, nail art has become widespread that allows you to enjoy fashionable fashion with glazedly decorated artificial nails.

ネイルアートを自前で行うにはスキルが求められるだけでなく、利き手の爪を装飾するのは難しいため、一般的にはネイルアートサロンで装飾してもらうことになる。様々な雑誌やインターネット上には、ネイルアートのデザイン見本が提示されているので、そのデザインをサロンに持ち込んでオーダーすることになるが、自分の指に似合うかどうかは試してみるまで分からない。また、サロンに通うにはコストや手間がかかるという問題がある。このような背景から、ネイルアートを気軽に楽しむための方法が幾つか提案されている。   Nail art is not only skillful, but it is also difficult to decorate the nails of the dominant hand, so it is generally decorated at a nail art salon. Nail art design samples are presented in various magazines and on the Internet, so you will bring them to the salon and order them, but you won't know until you try them out. Moreover, there is a problem that it takes cost and trouble to go to the salon. Against this background, several methods for casually enjoying nail art have been proposed.

特許文献1では、インクジェットプリンタを用いて爪にネイルアートを印刷する装置が開発されている。   In Patent Document 1, an apparatus for printing nail art on nails using an inkjet printer has been developed.

特許文献2では、電子ペーパー技術を用いたディスプレイを接着剤で爪に貼り付けることで、デザインを容易に切り替えることができる。   In Patent Document 2, the design can be easily switched by attaching a display using electronic paper technology to a nail with an adhesive.

特許文献3では、サーバからネイルアートのデザイン画像を携帯端末で取得可能であり、特許文献4では、ネイルアートのデザインを編集することが可能である。   In Patent Document 3, a nail art design image can be acquired from a server with a mobile terminal, and in Patent Document 4, a nail art design can be edited.

特許文献5では、ネイルアートのシートを切り貼りすることで自らの爪で実際に試すことができる。   In Patent Document 5, it is possible to actually test with a nail by cutting and pasting a nail art sheet.

特開2002−165632号公報「ネイルアートプリンター」Japanese Patent Laid-Open No. 2002-165632 “Nail Art Printer” 特開2008−168062号公報「電子ネイル及び電子ネイル変更装置」Japanese Patent Application Laid-Open No. 2008-168062 “Electronic Nail and Electronic Nail Changing Device” 特開2008−165316号公報「ネイルアートコンテンツ表示装置およびネイルアートコンテンツ表示システム」JP 2008-165316 A "Nail Art Content Display Device and Nail Art Content Display System" 特開2008−130054号公報「ネイルアートに係るゲームソフト・プログラム及び携帯サイトを利用した当該ゲームソフトの提供管理方法」Japanese Patent Application Laid-Open No. 2008-130054 “Nail Art Game Software Program and Method for Providing Game Software Using a Mobile Site” 特開2009−11763号公報「簡単ネイルアートシート」Japanese Patent Application Laid-Open No. 2009-11863 “Simple Nail Art Sheet”

前記の先行技術には、次のような課題があった。   The above prior art has the following problems.

特許文献1では、プリンタと爪の位置合わせを間違えるとやり直しがきかない。また、ネイルアートのインクが乾くまで時間がかかるため、短時間に変更することは難しい。   In Patent Document 1, if the printer and the nail are misaligned, it cannot be redone. Also, since it takes time until the nail art ink dries, it is difficult to change the ink in a short time.

特許文献2では、電子回路を搭載した厚ぼったいディスプレイを爪に貼り付けなければならないため、デザイン性を重視するネイルアートには向いていない。   In Patent Document 2, a thick display equipped with an electronic circuit must be attached to a nail, so that it is not suitable for nail art that places importance on design.

特許文献3及び特許文献4では、ネイルアートのデザインを選択または編集することはできても、デザイン画を自分の指で実際に試すことはできない。   In Patent Literature 3 and Patent Literature 4, although the design of nail art can be selected or edited, the design image cannot be actually tried with his / her finger.

特許文献5では、爪の形状に合わせてシートを切り貼りする手間がかかる。   In Patent Document 5, it takes time and effort to cut and paste a sheet according to the shape of the nail.

本発明は、前記の課題に鑑み、情報端末の撮像部で撮影された画像上に任意の画像を重畳した映像を情報端末の表示部に表示することのできる表示情報形成装置およびシステムを提供することを目的とする。例えば、ネイルアートのデザインを爪に重畳することで、あたかもネイルアートが施されたような映像を情報端末の表示部に表示することのできる表示情報形成装置およびシステムを提供することを目的とする。   In view of the above problems, the present invention provides a display information forming apparatus and system capable of displaying a video in which an arbitrary image is superimposed on an image captured by an imaging unit of an information terminal on a display unit of the information terminal. For the purpose. For example, an object of the present invention is to provide a display information forming apparatus and system capable of displaying an image as if nail art is applied on a display unit of an information terminal by superimposing a nail art design on a nail. .

前記した目的を達成するために、本発明は、指の爪部に光量を照射する光源部と、一定時間間隔で撮影した指領域画像を出力する撮像部と、前記爪部上に表示する情報を保持する記憶部と、前記撮像部から出力された指領域画像を解析し、該解析によって求められた光量差分とエッジ検出とに基づいて、前記爪部の位置向きおよび根元(付け根)を少なくとも推定する推定部と、前記爪部上に表示する情報を前記記憶部から読み出し、該読み出した表示情報を前記推定部で推定された爪部の位置向きおよび根本に適合させて、後記表示部に表示させる情報を作成する制御部と、前記撮像部から出力された画像および前記制御部で作成された情報を少なくとも表示する表示部とを備えた点に特徴がある。 In order to achieve the above-described object, the present invention provides a light source unit that irradiates a fingernail portion with a light amount, an imaging unit that outputs a finger region image photographed at regular time intervals, and information displayed on the nail unit. And a finger region image output from the imaging unit , and based on the light amount difference and edge detection obtained by the analysis, the position , orientation, and root (base) of the nail unit are determined. an estimation unit for at least estimating, the read information to be displayed on the claw portion from the storage unit, the position of the claw portion estimated by the display information read the said estimation unit, and adapted to the orientation and root, below the display There is a feature in that a control unit that creates information to be displayed on the unit and a display unit that displays at least the image output from the imaging unit and the information created by the control unit are provided.

また、本発明は、前記推定部が、前記撮像部から出力された画像から特定の領域を抽出する差分計算手段と、前記差分計算手段で抽出された領域を整形する領域形成手段と、前記領域形成手段で整形された領域から対象領域の位置、向き、個数を推定する姿勢推定手段とを備えた点に他の特徴がある。   Further, according to the present invention, the estimation unit includes a difference calculation unit that extracts a specific region from the image output from the imaging unit, a region formation unit that shapes the region extracted by the difference calculation unit, and the region There is another feature in that it includes posture estimation means for estimating the position, orientation, and number of target areas from the area shaped by the forming means.

また、本発明は、指の爪部に光量を照射する光源部と、一定時間間隔で撮影した指領域画像を出力する撮像部と、前記撮像部から出力された画像および後記制御部で作成された情報を少なくとも表示する表示部とを少なくとも有する情報端末装置と、前記撮像部から出力された指領域画像を解析し、該解析によって求められた光量差分とエッジ検出とに基づいて、前記爪部の位置向きおよび根本(付け根)を少なくとも推定する推定部と、前記爪部上に表示する情報を保持する記憶部と、前記爪部上に表示する情報を前記記憶部から読み出し、該読み出した表示情報を前記推定部で推定された位置向きおよび根本に適合させて、前記表示部に表示させる情報を作成する制御部とを少なくとも備えたサーバとからなり、前記情報端末装置で撮影された画像を前記サーバに伝送し、該サーバ上で前記表示部に表示させる情報を作成する点に他の特徴がある。 Further, the present invention is created by a light source unit that irradiates a fingernail unit with a light amount, an imaging unit that outputs a finger region image captured at a predetermined time interval, an image output from the imaging unit, and a control unit described later. an information terminal device having at least a display unit for displaying at least the information, to analyze the output finger region image from the imaging unit, based on the light amount difference and the edge detection obtained by the analysis, the pawl portion An estimation unit that at least estimates the position , orientation, and root (base) of the device, a storage unit that holds information to be displayed on the nail unit , and information to be displayed on the nail unit is read from the storage unit, and the read estimated position by said estimating unit to display information, be adapted to the orientation and fundamentally consists of at least comprises a server and a control unit for creating information to be displayed on the display unit, in the information terminal device Transmitting the shadow image to the server, there are other features that create information to be displayed on the display unit on the server.

本発明によれば、加速度センサなど特別なハードウェアや特別なデバイスを用いることなく、情報端末の入力画像から撮影対象(被写体)の位置及び向きを少なくとも推定することで、記憶部に保持している情報を、前記撮影対象の入力映像の特定箇所に重畳することが可能となる。   According to the present invention, at least the position and orientation of the shooting target (subject) are estimated from the input image of the information terminal without using special hardware such as an acceleration sensor or a special device, and are stored in the storage unit. It is possible to superimpose existing information on a specific portion of the input video to be photographed.

また、利用者は、前記入力映像の特定箇所に重畳された画像を見て、手軽に楽しむことができる。また、前記特定箇所に重畳される画像は記憶部に記憶されている任意の画像を選択できるので、色々な画像で楽しむことができ、長く楽しむことができる。具体例として、情報端末に対する指先の相対的な位置に応じてネイルアートのデザインを爪に重畳することで、あたかもネイルアートが施されたような映像を情報端末の表示部に表示でき、利用者に大きな楽しみを提供することができる。   In addition, the user can easily enjoy watching an image superimposed on a specific portion of the input video. In addition, since an arbitrary image stored in the storage unit can be selected as the image to be superimposed on the specific portion, it can be enjoyed with various images and can be enjoyed for a long time. As a specific example, by superimposing a nail art design on the nail according to the relative position of the fingertip with respect to the information terminal, it is possible to display an image as if the nail art was applied on the display unit of the information terminal, and the user Can provide great fun.

本発明の一実施形態の概略の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the outline of one Embodiment of this invention. 本実施形態の概略の処理手順を示すフローチャートである。It is a flowchart which shows the rough process sequence of this embodiment. 情報端末装置を用いて指と爪を撮影する様子を示す模式図である。It is a schematic diagram which shows a mode that a finger | toe and a nail | claw are image | photographed using an information terminal device. 爪表面の法線ベクトルの分布例を示す図である。It is a figure which shows the example of distribution of the normal vector of the nail | claw surface. 被写体としての指と爪を示す図である。It is a figure which shows the finger | toe and nail | claw as a to-be-photographed object. 爪の位置、方向、エッジを求める例の説明図である。It is explanatory drawing of the example which calculates | requires the position, direction, and edge of a nail | claw. 爪に情報を重畳した例を示す図である。It is a figure which shows the example which superimposed information on the nail | claw.

以下に、図面を参照して本発明を詳細に説明する。図1は本発明の一実施形態の概略の構成を示す機能ブロック図である。   Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing a schematic configuration of an embodiment of the present invention.

本実施形態の表示情報形成装置10(情報端末装置)は、撮像部1、光源部2、推定部3、制御部4、記憶部5及び表示部6を備える。以下では、被写体として爪、重ね合わせる画像としてネイルチップを利用する例で説明するが、本発明はこれに限定されるものではなく、爪以外の物の表面にも画像を重ねることができる。また、本実施形態では、本発明を携帯電話への適用を例にして説明するが、撮像部及び光源を備えた情報端末であれば、PDAやコンピュータなどにも同様に適用できる。   A display information forming device 10 (information terminal device) of the present embodiment includes an imaging unit 1, a light source unit 2, an estimation unit 3, a control unit 4, a storage unit 5, and a display unit 6. In the following, an example in which a nail is used as a subject and a nail tip is used as an image to be superimposed will be described, but the present invention is not limited to this, and an image can be superimposed on the surface of an object other than a nail. In the present embodiment, the present invention will be described by taking the application to a mobile phone as an example. However, any information terminal including an imaging unit and a light source can be similarly applied to a PDA, a computer, or the like.

前記撮像部1は、所定のサンプリング周期で被写体を連続的に撮影して、その撮影画像を出力する。この撮像部1としては携帯電話に標準装備されるデジタルカメラを用いることができる。本実施形態では被写体が手であり、特に指の爪が写るように撮影される。   The imaging unit 1 continuously shoots a subject at a predetermined sampling period and outputs the captured image. As the imaging unit 1, a digital camera provided as a standard in a mobile phone can be used. In this embodiment, the subject is a hand, and in particular, a photograph is taken so that a fingernail is captured.

前記推定部3は、撮影された爪の位置、向き、個数等を推定する。該推定部3では、図2の差分計算処理(S2),領域形成処理(S3)および姿勢推定処理(S4)を行う。前記制御部4は、入力画像の推定結果に基づいて重畳する情報を加工し、表示部6の表示内容を制御する。前記記憶部5には、予めネイルチップ情報を複数蓄積しておき、ユーザの選択によって任意のネイルチップを爪に重畳することができる。あるいは、ネットワーク経由によって新たなネイルチップを取得、または更新することもできる。   The estimation unit 3 estimates the position, orientation, number, etc. of the captured nails. The estimation unit 3 performs the difference calculation process (S2), area formation process (S3), and posture estimation process (S4) in FIG. The control unit 4 processes the information to be superimposed based on the estimation result of the input image, and controls the display content of the display unit 6. A plurality of nail chip information is accumulated in the storage unit 5 in advance, and an arbitrary nail chip can be superimposed on the nail according to the user's selection. Alternatively, a new nail chip can be obtained or updated via the network.

図2に本実施形態の処理手順を示す。画像撮影処理(S1)では、まず撮像部1が光源2と連動して光量を増加させたときの画像を撮影する。続いて光源を消灯するまたは光量を低減して、光量を低減させたときの画像を撮影する。このとき、2回の撮影は連続的に行うことで手振れによる位置のズレを最小限に抑え、同一座標の対応関係を保持した2枚の画像を差分計算処理(S2)に送る。図3は、表示情報形成装置10(情報端末装置)で爪を撮影する様子の一例を示している。   FIG. 2 shows the processing procedure of this embodiment. In the image capturing process (S1), first, the image capturing unit 1 captures an image when the light amount is increased in conjunction with the light source 2. Subsequently, the light source is turned off or the amount of light is reduced to capture an image when the amount of light is reduced. At this time, the two times of photographing are continuously performed to minimize positional deviation due to camera shake, and two images having the same coordinate correspondence are sent to the difference calculation process (S2). FIG. 3 shows an example of a state where a nail is photographed by the display information forming device 10 (information terminal device).

差分計算処理(S2)では、2枚の画像において変化量が大きな領域を抽出する。光が届く範囲は撮像部1に近接する被写体に限定されるため、2枚の画像を比較することで背景領域を排除できる。また、光量が大きいときの画像には近接した被写体による反射光が増加しているが、指の肌と爪の反射率の相違により爪の方がより大きな輝度値を得ていることが多い。よって、差分計算処理(S2)は光量が多いときの画像から光量の少ないときの画像と差分を算出し、予め設定している閾値以上の大きな差分値が発生している領域を爪領域候補として設定する。   In the difference calculation process (S2), a region having a large change amount is extracted from the two images. Since the range in which the light reaches is limited to the subject close to the imaging unit 1, the background region can be excluded by comparing the two images. In addition, reflected light from an adjacent subject increases in an image when the amount of light is large, but the nail often obtains a larger luminance value due to the difference in reflectance between the skin of the finger and the nail. Therefore, the difference calculation process (S2) calculates a difference from an image when the light amount is small from an image when the light amount is large, and an area where a large difference value equal to or larger than a preset threshold value is generated is a nail region candidate. Set.

あるいは、別の実施形態としては色空間変換によって光源の影響を際だたせることが可能である。すなわち、入力された2枚の画像をそれぞれRGB色空間からHSV色空間(明度V,彩度S,色相H)に変換する。   Alternatively, as another embodiment, the influence of the light source can be highlighted by color space conversion. That is, the two input images are converted from the RGB color space to the HSV color space (brightness V, saturation S, hue H), respectively.

Figure 0005203271
Figure 0005203271

爪領域では肌領域より血色が濃く出ているため、R(赤色)値が大きい。また、一般的な蛍光灯の下では爪領域のG(緑色)値はB(青色)値より大きいため、HSV色空間の色相Hは正の値を取る。ここで、光源として携帯電話のライトを照らした場合、青白い光が爪領域で強く反射するため、爪領域ではGとBの大小関係は逆転することが多い。一方、肌領域では反射率が比較的高くないため逆転は起こりにくい。よって、爪領域の色相Hだけ負の値になりやすいので、負数は360を加算することで正数とした後、両者の差が大きい画素を爪領域候補とする。360を加算する理由は、周知のように、一般に、色相Hは0〜360°の正数で表現されるからである。例えば、ライトをオンにした時の色相Hは、爪では約330(360の加算後の値)、肌では約10となり、ライトをオフした時の色相Hは、爪では約10,肌では約30となる。したがって、ライトをオン、オフした時の両者の差は、爪の方が肌に比べて顕著に大きいので、爪と肌の区別を明確につけることができる。このように、光量変化の有無を判断するにあたり、前記光源部2の照射光の色成分を考慮し、変化量が大きく現れる色空間に変化させた上で、前記光源部オンによる照射がある画像とオフによる照射がない画像とで差分を計算することができる。   In the nail region, since the blood color is darker than the skin region, the R (red) value is large. In addition, since the G (green) value of the nail region is larger than the B (blue) value under a general fluorescent lamp, the hue H of the HSV color space takes a positive value. Here, when the light of a cellular phone is illuminated as a light source, since pale light is strongly reflected in the nail region, the magnitude relationship between G and B is often reversed in the nail region. On the other hand, since the reflectance is not relatively high in the skin region, the reverse is unlikely to occur. Therefore, since only the hue H of the nail region tends to be a negative value, the negative number is set to a positive number by adding 360, and then a pixel having a large difference between them is determined as a nail region candidate. The reason why 360 is added is that, as is well known, the hue H is generally expressed as a positive number from 0 to 360 °. For example, the hue H when the light is turned on is about 330 (value after adding 360) for the nail and about 10 for the skin, and the hue H when the light is turned off is about 10 for the nail and about 10 for the skin. 30. Therefore, the difference between the two when the light is turned on and off is significantly larger for the nail than for the skin, so that the nail and the skin can be clearly distinguished. As described above, in determining whether there is a change in the amount of light, the color component of the light emitted from the light source unit 2 is taken into consideration, and after changing the color space in which the amount of change appears to be large, the image is illuminated by the light source unit ON And the difference between the image without irradiation due to OFF can be calculated.

なお、爪の色自体は個人差、健康状態、または照明光等により左右されやすいが、既知の光源色による能動的な光量変化が爪領域に明確な差分を生じさせることから、該差分を算出することで上記の個人差等の影響を抑えることができる。また、被写体には少ない色成分を前記光源部の照射光成分として強めに設定することで、反射率の高い対象領域の変化量を強調しやすくすることができる。   Note that the color of the nail itself is easily affected by individual differences, health conditions, illumination light, etc., but since the active light quantity change due to the known light source color causes a clear difference in the nail area, the difference is calculated. By doing so, it is possible to suppress the influence of the above individual differences and the like. In addition, by setting a small color component for the subject as a light component of the light source unit, it is possible to easily emphasize the amount of change in the target region having a high reflectance.

領域形成処理(S3)では、爪領域候補を整形する。まず、既存のモルフォロジーフィルタによって該爪領域候補の部分的な欠損を補う。次に、肌色検出によって指領域と背景領域を分離する。肌色検出には任意の方式を適用できる。一例としては、肌色及び非肌色をガウス混合モデル(GMM)で学習しておき、入力画素の肌確率と非肌確率との比較によって判断する。最後にCannyエッジ検出によって指領域画像からエッジ領域を算出し、エッジ領域を越えないように爪領域候補から領域を成長させる。具体的には隣接画素値と当該画素値との差が一定範囲内に収まり、かつ最近傍エッジ領域画素と当該画素との距離が一定以上であるとき、隣接画素を爪領域候補に組み入れる。   In the area formation process (S3), the nail area candidates are shaped. First, a partial defect of the nail region candidate is compensated by an existing morphological filter. Next, the finger region and the background region are separated by skin color detection. Any method can be applied to skin color detection. As an example, the skin color and the non-skin color are learned by a Gaussian mixture model (GMM), and are determined by comparing the skin probability of the input pixel with the non-skin probability. Finally, the edge area is calculated from the finger area image by Canny edge detection, and the area is grown from the nail area candidates so as not to exceed the edge area. Specifically, when the difference between the adjacent pixel value and the pixel value is within a certain range and the distance between the nearest edge region pixel and the pixel is greater than or equal to a certain distance, the adjacent pixel is incorporated into the nail region candidate.

姿勢推定処理(S4)は、ネイルチップを重畳するのに必要な情報として、爪の向きと爪の幅と爪の根本(付け根)座標とを推定する。まず、爪の幅を推定するため、爪の向きを推定する。光量の多い画像における最大輝度値は反射率の高い爪領域内部で発生することが多いので、最大輝度値とその近傍色で構成される小領域を生成する。爪表面は、図4に示されているように、指先に向かってほぼ同一法線で構成されることから、図5に示されているように、反射光の形状は指先方向へ長い領域7(前記小領域)となる。該領域7は光源が写り込んでいる領域でもある。   The posture estimation process (S4) estimates the direction of the nail, the width of the nail, and the base (base) coordinates of the nail as information necessary for superimposing the nail tip. First, in order to estimate the width of the nail, the direction of the nail is estimated. Since the maximum luminance value in an image with a large amount of light often occurs inside a nail region having a high reflectivity, a small region composed of the maximum luminance value and its neighboring colors is generated. As shown in FIG. 4, the nail surface is configured with substantially the same normal toward the fingertip. Therefore, as shown in FIG. 5, the shape of the reflected light is a region 7 long in the fingertip direction. (The small area). The region 7 is also a region where the light source is reflected.

よって、図6に示すように、領域形成された爪領域候補ごとに領域の重心、外接矩形の2軸を算出しておき、前記小領域11(例えば、反射光領域7)の外接矩形12の短軸13方向または該短軸方向に近い軸の長さを爪の幅と判断する。次に、爪の根本(付け根)15の座標を推定するため、指によるエッジ分布を利用する。前記高輝度小領域の短軸13で画面を2分し、前記領域形成処理(S3)で算出したエッジ検出結果から、エッジが多く存在する領域を爪の根本15の方向と判断する。そして、前記領域形成処理(S3)で算出した肌領域と爪候補領域の軸を根本方向に延長した線とが交わる境界を爪の根本座標とする。   Therefore, as shown in FIG. 6, the center of gravity of the region and the two axes of the circumscribed rectangle are calculated for each nail region candidate formed in the region, and the circumscribed rectangle 12 of the small region 11 (for example, the reflected light region 7) is calculated. The length of the axis of the minor axis 13 or the axis close to the minor axis direction is determined as the width of the nail. Next, in order to estimate the coordinates of the base (base) 15 of the nail, the edge distribution by the finger is used. The screen is divided into two by the short axis 13 of the high-luminance small area, and the area where there are many edges is determined as the direction of the nail root 15 based on the edge detection result calculated in the area forming process (S3). A boundary where the skin area calculated in the area forming process (S3) intersects with a line obtained by extending the axis of the nail candidate area in the root direction is defined as a nail root coordinate.

情報重畳処理(S5)は、爪に重畳する情報を記憶部5から取得し、該情報を前記姿勢推定処理(S4)で算出した爪の幅に応じて変形させる。次いで、変形された重畳情報は、図7に示すように該姿勢推定処理(S4)で算出した爪の根本座標に一致するように重畳位置を調整する。   In the information superimposing process (S5), information to be superimposed on the nail is acquired from the storage unit 5, and the information is deformed according to the nail width calculated in the posture estimation process (S4). Next, as shown in FIG. 7, the superposed position is adjusted so that the deformed superposition information matches the base coordinates of the nail calculated in the posture estimation process (S4).

映像に適用する別の実施形態では、推定部3は初回に一度だけ前記一連の処理を適用する。後続する入力画像に対しては、爪領域毎に爪の根本座標及び爪の幅を示す軸の両端座標を動き探索によって追跡し続けることで、推定処理の負荷を減少させつつ、映像に情報を重畳し続けることが可能となる。例えば、前記後続する入力画像として、動きのある指の画像を入力すれば、該動きのある指の爪の上に画像が乗るので、重畳情報が動的にどのように見えるかを試すことができる。   In another embodiment applied to video, the estimation unit 3 applies the series of processes only once at the first time. For the input image that follows, by keeping track of the nail root coordinates and the both-end coordinates of the axis indicating the nail width for each nail region by motion search, information on the video is reduced while reducing the load of the estimation process. It is possible to continue superimposing. For example, if an image of a finger with movement is input as the subsequent input image, an image is placed on the fingernail with movement, so it is possible to test how the superimposed information looks dynamically. it can.

また、重畳する情報は静止画のネイルチップ以外に、3DやアニメーションなどCGならではの情報を重畳することで、既存のネイルアートでは実現できなかった表現を提供することができる。あるいは、対象領域の向き、大きさ、座標に応じて重畳する情報を変化させることで、インタラクティブなアートを実現することができる。   Further, by superimposing information unique to CG such as 3D or animation in addition to the nail chip of a still image, it is possible to provide an expression that could not be realized with existing nail art. Alternatively, interactive art can be realized by changing the information to be superimposed according to the direction, size, and coordinates of the target area.

上記の実施形態は、図2の処理が全て表示情報形成装置10(情報端末装置)の内部で行われる例であったが、画像撮影(S1)と表示のみを情報端末装置で行い、他の処理(S2〜S5)をサーバで行ってもよい。つまり、撮影した画像情報を情報端末装置から有線又は無線でネットワーク(インターネットなど)に接続されたサーバに送り、サーバ側で前記差分計算処理(S2)、領域形成処理(S3)、姿勢推定処理(S4)および情報重畳処理(S5)を行い、情報重畳処理結果を情報端末装置で受信してその表示部6に表示するようにしてもよい。換言すれば、図1の推定部3,制御部4および記憶部5をサーバ側に置いて、前記の処理をし、処理結果を情報端末装置に送り返すようにしてもよい。   The above embodiment is an example in which all of the processing of FIG. 2 is performed inside the display information forming apparatus 10 (information terminal apparatus), but only the image photographing (S1) and display are performed by the information terminal apparatus. You may perform a process (S2-S5) with a server. That is, the captured image information is sent from the information terminal device to a server connected to a network (such as the Internet) by wire or wirelessly, and the server side performs the difference calculation process (S2), the area formation process (S3), and the attitude estimation process ( The information superimposing process (S5) and the information superimposing process (S5) may be performed and the information superimposing process result may be received by the information terminal device and displayed on the display unit 6. In other words, the estimation unit 3, the control unit 4, and the storage unit 5 of FIG. 1 may be placed on the server side to perform the above-described processing, and the processing result may be sent back to the information terminal device.

1・・・撮像部、2・・・光源、3・・・推定部、4・・・制御部、5・・・記憶部、6・・・表示部、7・・・反射光領域、10・・・表示情報形成装置(情報端末装置)、11・・・小領域、12・・・外接矩形12、13・・・短軸、15・・・爪の根本(付け根)。   DESCRIPTION OF SYMBOLS 1 ... Imaging part, 2 ... Light source, 3 ... Estimation part, 4 ... Control part, 5 ... Memory | storage part, 6 ... Display part, 7 ... Reflected light area, 10 ... display information forming device (information terminal device), 11 ... small region, 12 ... circumscribed rectangle 12, 13 ... short axis, 15 ... base of nail (base).

Claims (12)

指の爪部に光量を照射する光源部と、
一定時間間隔で撮影した指領域画像を出力する撮像部と、
前記爪部上に表示する情報を保持する記憶部と、
前記撮像部から出力された指領域画像を解析し、該解析によって求められた光量差分とエッジ検出とに基づいて、前記爪部の位置向きおよび根元(付け根)を少なくとも推定する推定部と、
前記爪部上に表示する情報を前記記憶部から読み出し、該読み出した表示情報を前記推定部で推定された爪部の位置向きおよび根本に適合させて、後記表示部に表示させる情報を作成する制御部と
前記撮像部から出力された画像および前記制御部で作成された情報を少なくとも表示する表示部と、を備えたことを特徴とする表示情報形成装置。
A light source for irradiating the fingernail with light,
An imaging unit that outputs a finger region image captured at regular time intervals;
A storage unit for holding information to be displayed on the nail unit;
Analyzing the finger region image output from the imaging unit , and based on the light amount difference and edge detection obtained by the analysis, an estimation unit that estimates at least the position , orientation, and root (base) of the nail unit ;
Read the information to be displayed on the claw portion from the storage unit, the position of the claw portion estimated by the display information read the said estimation unit, and adapted to the orientation and fundamentally, generates information to be displayed on the later display unit A control unit ,
A display information forming apparatus comprising: a display unit configured to display at least an image output from the imaging unit and information generated by the control unit .
前記撮像部は、前記光源部と連動して光量の異なる複数の画像を連続して取得する手段を備えたことを特徴とする請求項1に記載の表示情報形成装置。   The display information forming apparatus according to claim 1, wherein the imaging unit includes means for continuously acquiring a plurality of images having different light amounts in conjunction with the light source unit. 前記推定部は、
前記撮像部から出力された画像から特定の領域を抽出する差分計算手段と、
前記差分計算手段で抽出された領域を整形する領域形成手段と、
前記領域形成手段で整形された領域から対象領域の位置、向き、根本を推定する姿勢推定手段とを備えたことを特徴とする請求項1に記載の表示情報形成装置。
The estimation unit includes
Difference calculating means for extracting a specific region from the image output from the imaging unit;
Area forming means for shaping the area extracted by the difference calculating means;
2. The display information forming apparatus according to claim 1, further comprising posture estimation means for estimating a position, orientation, and root of the target area from the area shaped by the area forming means.
前記差分計算手段は、前記光源部が照射する光によって光量変化が生じる領域を光が届く範囲の被写体として抽出することを特徴とする請求項3に記載の表示情報形成装置。   The display information forming apparatus according to claim 3, wherein the difference calculation unit extracts a region in which a light amount change is caused by light emitted from the light source unit as a subject in a range where the light reaches. 前記差分計算手段は、前記光源部オンによる照射がある画像とオフによる照射がない画像とで差分を計算し差分値を閾値と比較することで光量変化の有無を判断し、被写体の複数領域における反射率の相違を利用して対象領域を抽出することを特徴とする請求項3に記載の表示情報形成装置。   The difference calculation means calculates a difference between an image with irradiation by turning on the light source unit and an image without irradiation by turning off, and compares the difference value with a threshold to determine whether there is a change in light amount, and in a plurality of areas of the subject The display information forming apparatus according to claim 3, wherein a target area is extracted using a difference in reflectance. 前記差分計算手段は、光量変化の有無を判断するにあたり、前記光源部の照射光の色成分を考慮し、変化量が大きく現れる色空間に変化させた上で、前記光源部オンによる照射がある画像とオフによる照射がない画像とで差分を計算することを特徴とする請求項3に記載の表示情報形成装置。   The difference calculation means considers the color component of the irradiation light of the light source unit in determining whether there is a change in the amount of light, changes the color space to a large amount of change, and then irradiates when the light source unit is turned on. The display information forming apparatus according to claim 3, wherein a difference is calculated between the image and an image that is not irradiated by turning off. 前記差分計算手段は、被写体には少ない色成分を前記光源部の照射光成分として強めに設定することで、反射率の高い対象領域の変化量を強調しやすくすることを特徴とする請求項3に記載の表示情報形成装置。   4. The difference calculating means makes it easy to emphasize the amount of change in a target region having a high reflectivity by setting a small color component for the subject as an irradiation light component of the light source unit. The display information forming device described in 1. 前記領域形成手段は、対象領域に隣接する領域及び境界面を抽出し、該境界面に部分的な欠損があっても領域をまたがないように距離の閾値を基準として対象領域の形状を整形することを特徴とする請求項3に記載の表示情報形成装置。   The region forming means extracts a region and a boundary surface adjacent to the target region, and shapes the shape of the target region based on a distance threshold so as not to cross the region even if the boundary surface has a partial defect. The display information forming apparatus according to claim 3, wherein: 前記姿勢推定手段は、前記撮像部で得られた画像から光源自体が写り込んでいる領域を抽出し、該領域の形状から重畳する情報の加工に必要な対象領域の向きを推定することを特徴とする請求項3に記載の表示情報形成装置。   The posture estimation means extracts a region where the light source itself is reflected from the image obtained by the imaging unit, and estimates the orientation of the target region necessary for processing of the superimposed information from the shape of the region. The display information forming apparatus according to claim 3. 前記姿勢推定手段は、前記領域形成手段で得られたエッジ特徴量から重畳する情報の加工に必要な対象領域の向きを推定することを特徴とする請求項3に記載の表示情報形成装置。   The display information forming apparatus according to claim 3, wherein the posture estimation unit estimates a direction of a target region necessary for processing of superimposed information from the edge feature amount obtained by the region forming unit. 前記制御部は、前記推定部で推定された対象領域の座標、向き、大きさの情報を入力し、該情報に応じて記憶部に蓄積された情報を加工し、前記撮像部で得られた画像に重畳することを特徴とする請求項1に記載の表示情報形成装置。   The control unit inputs information on the coordinates, orientation, and size of the target area estimated by the estimation unit, processes information stored in the storage unit according to the information, and is obtained by the imaging unit The display information forming apparatus according to claim 1, wherein the display information forming apparatus is superimposed on an image. 指の爪部に光量を照射する光源部と、一定時間間隔で撮影した指領域画像を出力する撮像部と、前記撮像部から出力された画像および後記制御部で作成された情報を少なくとも表示する表示部とを少なくとも有する情報端末装置と、
前記撮像部から出力された指領域画像を解析し、該解析によって求められた光量差分とエッジ検出とに基づいて、前記爪部の位置向きおよび根本(付け根)を少なくとも推定する推定部と、前記爪部上に表示する情報を保持する記憶部と、前記爪部上に表示する情報を前記記憶部から読み出し、該読み出した表示情報を前記推定部で推定された位置向きおよび根本に適合させて、前記表示部に表示させる情報を作成する制御部とを少なくとも備えたサーバとからなり、
前記情報端末装置で撮影された画像を前記サーバに伝送し、該サーバ上で前記表示部に表示させる情報を作成することを特徴とする表示情報形成システム。
At least a light source unit that irradiates a fingernail portion with a light amount, an imaging unit that outputs a finger region image captured at regular time intervals, an image output from the imaging unit, and information created by a control unit described later are displayed at least . An information terminal device having at least a display unit;
Analyzing the finger region image output from the imaging unit , and estimating at least the position , orientation, and root (base) of the nail based on the light amount difference and edge detection obtained by the analysis ; a storage unit for holding information to be displayed on said pawl portion, the read information to be displayed on the claw portion from the storage unit, the position of the display information read said estimated by the estimation unit, adapted to the orientation and fundamentally And a server including at least a control unit that creates information to be displayed on the display unit,
An image captured by the information terminal device is transmitted to the server, and information to be displayed on the display unit on the server is created.
JP2009076380A 2009-03-26 2009-03-26 Display information forming apparatus and system Expired - Fee Related JP5203271B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009076380A JP5203271B2 (en) 2009-03-26 2009-03-26 Display information forming apparatus and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009076380A JP5203271B2 (en) 2009-03-26 2009-03-26 Display information forming apparatus and system

Publications (2)

Publication Number Publication Date
JP2010231352A JP2010231352A (en) 2010-10-14
JP5203271B2 true JP5203271B2 (en) 2013-06-05

Family

ID=43047127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009076380A Expired - Fee Related JP5203271B2 (en) 2009-03-26 2009-03-26 Display information forming apparatus and system

Country Status (1)

Country Link
JP (1) JP5203271B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012146182A (en) * 2011-01-13 2012-08-02 Kddi Corp Nail area detecting device and nail art simulator
JP5969460B2 (en) * 2011-03-14 2016-08-17 聖 星野 Nail region detection method, program, storage medium, and nail region detection device
JP5435108B2 (en) * 2012-11-22 2014-03-05 カシオ計算機株式会社 Nail printing apparatus and printing control method
JP6561463B2 (en) * 2014-12-25 2019-08-21 カシオ計算機株式会社 Drawing apparatus, drawing apparatus operation control method, and drawing apparatus operation control program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10162137A (en) * 1996-12-04 1998-06-19 Tokyo Electric Power Co Inc:The Device and method for object recognition
JP2000036032A (en) * 1998-07-17 2000-02-02 Fujitsu Ltd Foreground picture extracting method, picture processor, automatic trimming device, recording medium and portrait picture device
US6286517B1 (en) * 1998-12-22 2001-09-11 Pearl Technology Holdings, Llc Fingernail and toenail decoration using ink jets
JP3016147B1 (en) * 1998-12-25 2000-03-06 株式会社アトラス Nail art equipment
JP4131097B2 (en) * 2000-12-27 2008-08-13 カシオ計算機株式会社 Image processing method, image processing apparatus, and image processing program
JP2008165316A (en) * 2006-12-27 2008-07-17 Masako Yokoyama Nail art content display device and nail art content display system
JP4873738B2 (en) * 2007-07-09 2012-02-08 日本電信電話株式会社 Text segmentation device, text segmentation method, program, and recording medium
JP4993000B2 (en) * 2010-06-25 2012-08-08 カシオ計算機株式会社 Nail printing device

Also Published As

Publication number Publication date
JP2010231352A (en) 2010-10-14

Similar Documents

Publication Publication Date Title
US7787022B2 (en) Red-eye filter method and apparatus
JP4307496B2 (en) Facial part detection device and program
US8682097B2 (en) Digital image enhancement with reference images
US8213737B2 (en) Digital image enhancement with reference images
US20120069198A1 (en) Foreground/Background Separation Using Reference Images
WO2008109567A4 (en) System and method for tracking three dimensional objects
JP4783331B2 (en) Face recognition device
CN111597938B (en) Living body detection and model training method and device
WO2016107638A1 (en) An image face processing method and apparatus
JP5203271B2 (en) Display information forming apparatus and system
JP5949030B2 (en) Image generating apparatus, image generating method, and program
JP3459950B2 (en) Face detection and face tracking method and apparatus
JP2004320284A (en) Digital camera
JP2007048108A (en) Image evaluation system, image evaluation method and image evaluation program
CA3170390A1 (en) Quantifying biotic damage on plants, by separating plant-images and subsequently operating a convolutional neural network
JP4664805B2 (en) Face edge detection device, face edge detection method, and program
JP2013058164A (en) Image processing device and camera
JP4831344B2 (en) Eye position detection method
US8223220B2 (en) Image processing device, image processing method, and information storage medium
JP7409440B2 (en) Image processing device, image processing method and program
JP4831361B2 (en) Eye position detection method and detection system
WO2020240989A1 (en) Imaging device, imaging control method, and imaging control program
JP2004013768A (en) Individual identification method
JP5093540B2 (en) Eye position detection method and detection system
WO2005093656A1 (en) System for estimating attitude at specific part, methode for estimating attitude at specific part, and program for estimating attitude at specific part

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120704

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130213

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees