JP5203271B2 - Display information forming apparatus and system - Google Patents
Display information forming apparatus and system Download PDFInfo
- Publication number
- JP5203271B2 JP5203271B2 JP2009076380A JP2009076380A JP5203271B2 JP 5203271 B2 JP5203271 B2 JP 5203271B2 JP 2009076380 A JP2009076380 A JP 2009076380A JP 2009076380 A JP2009076380 A JP 2009076380A JP 5203271 B2 JP5203271 B2 JP 5203271B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- information
- region
- nail
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は表示情報形成装置およびシステムに関し、特に、撮像部と撮影対象との間の空間的位置関係を推定することによって表示部に表示される情報を制御できる表示情報形成装置およびシステムに関するものである。 The present invention relates to a display information forming apparatus and system, and more particularly, to a display information forming apparatus and system capable of controlling information displayed on a display unit by estimating a spatial positional relationship between an imaging unit and an imaging target. is there.
近年、煌びやかに装飾された付け爪をつけておしゃれを楽しむネイルアートが普及している。 In recent years, nail art has become widespread that allows you to enjoy fashionable fashion with glazedly decorated artificial nails.
ネイルアートを自前で行うにはスキルが求められるだけでなく、利き手の爪を装飾するのは難しいため、一般的にはネイルアートサロンで装飾してもらうことになる。様々な雑誌やインターネット上には、ネイルアートのデザイン見本が提示されているので、そのデザインをサロンに持ち込んでオーダーすることになるが、自分の指に似合うかどうかは試してみるまで分からない。また、サロンに通うにはコストや手間がかかるという問題がある。このような背景から、ネイルアートを気軽に楽しむための方法が幾つか提案されている。 Nail art is not only skillful, but it is also difficult to decorate the nails of the dominant hand, so it is generally decorated at a nail art salon. Nail art design samples are presented in various magazines and on the Internet, so you will bring them to the salon and order them, but you won't know until you try them out. Moreover, there is a problem that it takes cost and trouble to go to the salon. Against this background, several methods for casually enjoying nail art have been proposed.
特許文献1では、インクジェットプリンタを用いて爪にネイルアートを印刷する装置が開発されている。 In Patent Document 1, an apparatus for printing nail art on nails using an inkjet printer has been developed.
特許文献2では、電子ペーパー技術を用いたディスプレイを接着剤で爪に貼り付けることで、デザインを容易に切り替えることができる。
In
特許文献3では、サーバからネイルアートのデザイン画像を携帯端末で取得可能であり、特許文献4では、ネイルアートのデザインを編集することが可能である。 In Patent Document 3, a nail art design image can be acquired from a server with a mobile terminal, and in Patent Document 4, a nail art design can be edited.
特許文献5では、ネイルアートのシートを切り貼りすることで自らの爪で実際に試すことができる。
In
前記の先行技術には、次のような課題があった。 The above prior art has the following problems.
特許文献1では、プリンタと爪の位置合わせを間違えるとやり直しがきかない。また、ネイルアートのインクが乾くまで時間がかかるため、短時間に変更することは難しい。 In Patent Document 1, if the printer and the nail are misaligned, it cannot be redone. Also, since it takes time until the nail art ink dries, it is difficult to change the ink in a short time.
特許文献2では、電子回路を搭載した厚ぼったいディスプレイを爪に貼り付けなければならないため、デザイン性を重視するネイルアートには向いていない。
In
特許文献3及び特許文献4では、ネイルアートのデザインを選択または編集することはできても、デザイン画を自分の指で実際に試すことはできない。 In Patent Literature 3 and Patent Literature 4, although the design of nail art can be selected or edited, the design image cannot be actually tried with his / her finger.
特許文献5では、爪の形状に合わせてシートを切り貼りする手間がかかる。
In
本発明は、前記の課題に鑑み、情報端末の撮像部で撮影された画像上に任意の画像を重畳した映像を情報端末の表示部に表示することのできる表示情報形成装置およびシステムを提供することを目的とする。例えば、ネイルアートのデザインを爪に重畳することで、あたかもネイルアートが施されたような映像を情報端末の表示部に表示することのできる表示情報形成装置およびシステムを提供することを目的とする。 In view of the above problems, the present invention provides a display information forming apparatus and system capable of displaying a video in which an arbitrary image is superimposed on an image captured by an imaging unit of an information terminal on a display unit of the information terminal. For the purpose. For example, an object of the present invention is to provide a display information forming apparatus and system capable of displaying an image as if nail art is applied on a display unit of an information terminal by superimposing a nail art design on a nail. .
前記した目的を達成するために、本発明は、指の爪部に光量を照射する光源部と、一定時間間隔で撮影した指領域画像を出力する撮像部と、前記爪部上に表示する情報を保持する記憶部と、前記撮像部から出力された指領域画像を解析し、該解析によって求められた光量差分とエッジ検出とに基づいて、前記爪部の位置、向きおよび根元(付け根)を少なくとも推定する推定部と、前記爪部上に表示する情報を前記記憶部から読み出し、該読み出した表示情報を前記推定部で推定された爪部の位置、向きおよび根本に適合させて、後記表示部に表示させる情報を作成する制御部と、前記撮像部から出力された画像および前記制御部で作成された情報を少なくとも表示する表示部とを備えた点に特徴がある。 In order to achieve the above-described object, the present invention provides a light source unit that irradiates a fingernail portion with a light amount, an imaging unit that outputs a finger region image photographed at regular time intervals, and information displayed on the nail unit. And a finger region image output from the imaging unit , and based on the light amount difference and edge detection obtained by the analysis, the position , orientation, and root (base) of the nail unit are determined. an estimation unit for at least estimating, the read information to be displayed on the claw portion from the storage unit, the position of the claw portion estimated by the display information read the said estimation unit, and adapted to the orientation and root, below the display There is a feature in that a control unit that creates information to be displayed on the unit and a display unit that displays at least the image output from the imaging unit and the information created by the control unit are provided.
また、本発明は、前記推定部が、前記撮像部から出力された画像から特定の領域を抽出する差分計算手段と、前記差分計算手段で抽出された領域を整形する領域形成手段と、前記領域形成手段で整形された領域から対象領域の位置、向き、個数を推定する姿勢推定手段とを備えた点に他の特徴がある。 Further, according to the present invention, the estimation unit includes a difference calculation unit that extracts a specific region from the image output from the imaging unit, a region formation unit that shapes the region extracted by the difference calculation unit, and the region There is another feature in that it includes posture estimation means for estimating the position, orientation, and number of target areas from the area shaped by the forming means.
また、本発明は、指の爪部に光量を照射する光源部と、一定時間間隔で撮影した指領域画像を出力する撮像部と、前記撮像部から出力された画像および後記制御部で作成された情報を少なくとも表示する表示部とを少なくとも有する情報端末装置と、前記撮像部から出力された指領域画像を解析し、該解析によって求められた光量差分とエッジ検出とに基づいて、前記爪部の位置、向きおよび根本(付け根)を少なくとも推定する推定部と、前記爪部上に表示する情報を保持する記憶部と、前記爪部上に表示する情報を前記記憶部から読み出し、該読み出した表示情報を前記推定部で推定された位置、向きおよび根本に適合させて、前記表示部に表示させる情報を作成する制御部とを少なくとも備えたサーバとからなり、前記情報端末装置で撮影された画像を前記サーバに伝送し、該サーバ上で前記表示部に表示させる情報を作成する点に他の特徴がある。 Further, the present invention is created by a light source unit that irradiates a fingernail unit with a light amount, an imaging unit that outputs a finger region image captured at a predetermined time interval, an image output from the imaging unit, and a control unit described later. an information terminal device having at least a display unit for displaying at least the information, to analyze the output finger region image from the imaging unit, based on the light amount difference and the edge detection obtained by the analysis, the pawl portion An estimation unit that at least estimates the position , orientation, and root (base) of the device, a storage unit that holds information to be displayed on the nail unit , and information to be displayed on the nail unit is read from the storage unit, and the read estimated position by said estimating unit to display information, be adapted to the orientation and fundamentally consists of at least comprises a server and a control unit for creating information to be displayed on the display unit, in the information terminal device Transmitting the shadow image to the server, there are other features that create information to be displayed on the display unit on the server.
本発明によれば、加速度センサなど特別なハードウェアや特別なデバイスを用いることなく、情報端末の入力画像から撮影対象(被写体)の位置及び向きを少なくとも推定することで、記憶部に保持している情報を、前記撮影対象の入力映像の特定箇所に重畳することが可能となる。 According to the present invention, at least the position and orientation of the shooting target (subject) are estimated from the input image of the information terminal without using special hardware such as an acceleration sensor or a special device, and are stored in the storage unit. It is possible to superimpose existing information on a specific portion of the input video to be photographed.
また、利用者は、前記入力映像の特定箇所に重畳された画像を見て、手軽に楽しむことができる。また、前記特定箇所に重畳される画像は記憶部に記憶されている任意の画像を選択できるので、色々な画像で楽しむことができ、長く楽しむことができる。具体例として、情報端末に対する指先の相対的な位置に応じてネイルアートのデザインを爪に重畳することで、あたかもネイルアートが施されたような映像を情報端末の表示部に表示でき、利用者に大きな楽しみを提供することができる。 In addition, the user can easily enjoy watching an image superimposed on a specific portion of the input video. In addition, since an arbitrary image stored in the storage unit can be selected as the image to be superimposed on the specific portion, it can be enjoyed with various images and can be enjoyed for a long time. As a specific example, by superimposing a nail art design on the nail according to the relative position of the fingertip with respect to the information terminal, it is possible to display an image as if the nail art was applied on the display unit of the information terminal, and the user Can provide great fun.
以下に、図面を参照して本発明を詳細に説明する。図1は本発明の一実施形態の概略の構成を示す機能ブロック図である。 Hereinafter, the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram showing a schematic configuration of an embodiment of the present invention.
本実施形態の表示情報形成装置10(情報端末装置)は、撮像部1、光源部2、推定部3、制御部4、記憶部5及び表示部6を備える。以下では、被写体として爪、重ね合わせる画像としてネイルチップを利用する例で説明するが、本発明はこれに限定されるものではなく、爪以外の物の表面にも画像を重ねることができる。また、本実施形態では、本発明を携帯電話への適用を例にして説明するが、撮像部及び光源を備えた情報端末であれば、PDAやコンピュータなどにも同様に適用できる。
A display information forming device 10 (information terminal device) of the present embodiment includes an imaging unit 1, a
前記撮像部1は、所定のサンプリング周期で被写体を連続的に撮影して、その撮影画像を出力する。この撮像部1としては携帯電話に標準装備されるデジタルカメラを用いることができる。本実施形態では被写体が手であり、特に指の爪が写るように撮影される。 The imaging unit 1 continuously shoots a subject at a predetermined sampling period and outputs the captured image. As the imaging unit 1, a digital camera provided as a standard in a mobile phone can be used. In this embodiment, the subject is a hand, and in particular, a photograph is taken so that a fingernail is captured.
前記推定部3は、撮影された爪の位置、向き、個数等を推定する。該推定部3では、図2の差分計算処理(S2),領域形成処理(S3)および姿勢推定処理(S4)を行う。前記制御部4は、入力画像の推定結果に基づいて重畳する情報を加工し、表示部6の表示内容を制御する。前記記憶部5には、予めネイルチップ情報を複数蓄積しておき、ユーザの選択によって任意のネイルチップを爪に重畳することができる。あるいは、ネットワーク経由によって新たなネイルチップを取得、または更新することもできる。
The estimation unit 3 estimates the position, orientation, number, etc. of the captured nails. The estimation unit 3 performs the difference calculation process (S2), area formation process (S3), and posture estimation process (S4) in FIG. The control unit 4 processes the information to be superimposed based on the estimation result of the input image, and controls the display content of the display unit 6. A plurality of nail chip information is accumulated in the
図2に本実施形態の処理手順を示す。画像撮影処理(S1)では、まず撮像部1が光源2と連動して光量を増加させたときの画像を撮影する。続いて光源を消灯するまたは光量を低減して、光量を低減させたときの画像を撮影する。このとき、2回の撮影は連続的に行うことで手振れによる位置のズレを最小限に抑え、同一座標の対応関係を保持した2枚の画像を差分計算処理(S2)に送る。図3は、表示情報形成装置10(情報端末装置)で爪を撮影する様子の一例を示している。
FIG. 2 shows the processing procedure of this embodiment. In the image capturing process (S1), first, the image capturing unit 1 captures an image when the light amount is increased in conjunction with the
差分計算処理(S2)では、2枚の画像において変化量が大きな領域を抽出する。光が届く範囲は撮像部1に近接する被写体に限定されるため、2枚の画像を比較することで背景領域を排除できる。また、光量が大きいときの画像には近接した被写体による反射光が増加しているが、指の肌と爪の反射率の相違により爪の方がより大きな輝度値を得ていることが多い。よって、差分計算処理(S2)は光量が多いときの画像から光量の少ないときの画像と差分を算出し、予め設定している閾値以上の大きな差分値が発生している領域を爪領域候補として設定する。 In the difference calculation process (S2), a region having a large change amount is extracted from the two images. Since the range in which the light reaches is limited to the subject close to the imaging unit 1, the background region can be excluded by comparing the two images. In addition, reflected light from an adjacent subject increases in an image when the amount of light is large, but the nail often obtains a larger luminance value due to the difference in reflectance between the skin of the finger and the nail. Therefore, the difference calculation process (S2) calculates a difference from an image when the light amount is small from an image when the light amount is large, and an area where a large difference value equal to or larger than a preset threshold value is generated is a nail region candidate. Set.
あるいは、別の実施形態としては色空間変換によって光源の影響を際だたせることが可能である。すなわち、入力された2枚の画像をそれぞれRGB色空間からHSV色空間(明度V,彩度S,色相H)に変換する。 Alternatively, as another embodiment, the influence of the light source can be highlighted by color space conversion. That is, the two input images are converted from the RGB color space to the HSV color space (brightness V, saturation S, hue H), respectively.
爪領域では肌領域より血色が濃く出ているため、R(赤色)値が大きい。また、一般的な蛍光灯の下では爪領域のG(緑色)値はB(青色)値より大きいため、HSV色空間の色相Hは正の値を取る。ここで、光源として携帯電話のライトを照らした場合、青白い光が爪領域で強く反射するため、爪領域ではGとBの大小関係は逆転することが多い。一方、肌領域では反射率が比較的高くないため逆転は起こりにくい。よって、爪領域の色相Hだけ負の値になりやすいので、負数は360を加算することで正数とした後、両者の差が大きい画素を爪領域候補とする。360を加算する理由は、周知のように、一般に、色相Hは0〜360°の正数で表現されるからである。例えば、ライトをオンにした時の色相Hは、爪では約330(360の加算後の値)、肌では約10となり、ライトをオフした時の色相Hは、爪では約10,肌では約30となる。したがって、ライトをオン、オフした時の両者の差は、爪の方が肌に比べて顕著に大きいので、爪と肌の区別を明確につけることができる。このように、光量変化の有無を判断するにあたり、前記光源部2の照射光の色成分を考慮し、変化量が大きく現れる色空間に変化させた上で、前記光源部オンによる照射がある画像とオフによる照射がない画像とで差分を計算することができる。
In the nail region, since the blood color is darker than the skin region, the R (red) value is large. In addition, since the G (green) value of the nail region is larger than the B (blue) value under a general fluorescent lamp, the hue H of the HSV color space takes a positive value. Here, when the light of a cellular phone is illuminated as a light source, since pale light is strongly reflected in the nail region, the magnitude relationship between G and B is often reversed in the nail region. On the other hand, since the reflectance is not relatively high in the skin region, the reverse is unlikely to occur. Therefore, since only the hue H of the nail region tends to be a negative value, the negative number is set to a positive number by adding 360, and then a pixel having a large difference between them is determined as a nail region candidate. The reason why 360 is added is that, as is well known, the hue H is generally expressed as a positive number from 0 to 360 °. For example, the hue H when the light is turned on is about 330 (value after adding 360) for the nail and about 10 for the skin, and the hue H when the light is turned off is about 10 for the nail and about 10 for the skin. 30. Therefore, the difference between the two when the light is turned on and off is significantly larger for the nail than for the skin, so that the nail and the skin can be clearly distinguished. As described above, in determining whether there is a change in the amount of light, the color component of the light emitted from the
なお、爪の色自体は個人差、健康状態、または照明光等により左右されやすいが、既知の光源色による能動的な光量変化が爪領域に明確な差分を生じさせることから、該差分を算出することで上記の個人差等の影響を抑えることができる。また、被写体には少ない色成分を前記光源部の照射光成分として強めに設定することで、反射率の高い対象領域の変化量を強調しやすくすることができる。 Note that the color of the nail itself is easily affected by individual differences, health conditions, illumination light, etc., but since the active light quantity change due to the known light source color causes a clear difference in the nail area, the difference is calculated. By doing so, it is possible to suppress the influence of the above individual differences and the like. In addition, by setting a small color component for the subject as a light component of the light source unit, it is possible to easily emphasize the amount of change in the target region having a high reflectance.
領域形成処理(S3)では、爪領域候補を整形する。まず、既存のモルフォロジーフィルタによって該爪領域候補の部分的な欠損を補う。次に、肌色検出によって指領域と背景領域を分離する。肌色検出には任意の方式を適用できる。一例としては、肌色及び非肌色をガウス混合モデル(GMM)で学習しておき、入力画素の肌確率と非肌確率との比較によって判断する。最後にCannyエッジ検出によって指領域画像からエッジ領域を算出し、エッジ領域を越えないように爪領域候補から領域を成長させる。具体的には隣接画素値と当該画素値との差が一定範囲内に収まり、かつ最近傍エッジ領域画素と当該画素との距離が一定以上であるとき、隣接画素を爪領域候補に組み入れる。 In the area formation process (S3), the nail area candidates are shaped. First, a partial defect of the nail region candidate is compensated by an existing morphological filter. Next, the finger region and the background region are separated by skin color detection. Any method can be applied to skin color detection. As an example, the skin color and the non-skin color are learned by a Gaussian mixture model (GMM), and are determined by comparing the skin probability of the input pixel with the non-skin probability. Finally, the edge area is calculated from the finger area image by Canny edge detection, and the area is grown from the nail area candidates so as not to exceed the edge area. Specifically, when the difference between the adjacent pixel value and the pixel value is within a certain range and the distance between the nearest edge region pixel and the pixel is greater than or equal to a certain distance, the adjacent pixel is incorporated into the nail region candidate.
姿勢推定処理(S4)は、ネイルチップを重畳するのに必要な情報として、爪の向きと爪の幅と爪の根本(付け根)座標とを推定する。まず、爪の幅を推定するため、爪の向きを推定する。光量の多い画像における最大輝度値は反射率の高い爪領域内部で発生することが多いので、最大輝度値とその近傍色で構成される小領域を生成する。爪表面は、図4に示されているように、指先に向かってほぼ同一法線で構成されることから、図5に示されているように、反射光の形状は指先方向へ長い領域7(前記小領域)となる。該領域7は光源が写り込んでいる領域でもある。 The posture estimation process (S4) estimates the direction of the nail, the width of the nail, and the base (base) coordinates of the nail as information necessary for superimposing the nail tip. First, in order to estimate the width of the nail, the direction of the nail is estimated. Since the maximum luminance value in an image with a large amount of light often occurs inside a nail region having a high reflectivity, a small region composed of the maximum luminance value and its neighboring colors is generated. As shown in FIG. 4, the nail surface is configured with substantially the same normal toward the fingertip. Therefore, as shown in FIG. 5, the shape of the reflected light is a region 7 long in the fingertip direction. (The small area). The region 7 is also a region where the light source is reflected.
よって、図6に示すように、領域形成された爪領域候補ごとに領域の重心、外接矩形の2軸を算出しておき、前記小領域11(例えば、反射光領域7)の外接矩形12の短軸13方向または該短軸方向に近い軸の長さを爪の幅と判断する。次に、爪の根本(付け根)15の座標を推定するため、指によるエッジ分布を利用する。前記高輝度小領域の短軸13で画面を2分し、前記領域形成処理(S3)で算出したエッジ検出結果から、エッジが多く存在する領域を爪の根本15の方向と判断する。そして、前記領域形成処理(S3)で算出した肌領域と爪候補領域の軸を根本方向に延長した線とが交わる境界を爪の根本座標とする。
Therefore, as shown in FIG. 6, the center of gravity of the region and the two axes of the circumscribed rectangle are calculated for each nail region candidate formed in the region, and the circumscribed
情報重畳処理(S5)は、爪に重畳する情報を記憶部5から取得し、該情報を前記姿勢推定処理(S4)で算出した爪の幅に応じて変形させる。次いで、変形された重畳情報は、図7に示すように該姿勢推定処理(S4)で算出した爪の根本座標に一致するように重畳位置を調整する。
In the information superimposing process (S5), information to be superimposed on the nail is acquired from the
映像に適用する別の実施形態では、推定部3は初回に一度だけ前記一連の処理を適用する。後続する入力画像に対しては、爪領域毎に爪の根本座標及び爪の幅を示す軸の両端座標を動き探索によって追跡し続けることで、推定処理の負荷を減少させつつ、映像に情報を重畳し続けることが可能となる。例えば、前記後続する入力画像として、動きのある指の画像を入力すれば、該動きのある指の爪の上に画像が乗るので、重畳情報が動的にどのように見えるかを試すことができる。 In another embodiment applied to video, the estimation unit 3 applies the series of processes only once at the first time. For the input image that follows, by keeping track of the nail root coordinates and the both-end coordinates of the axis indicating the nail width for each nail region by motion search, information on the video is reduced while reducing the load of the estimation process. It is possible to continue superimposing. For example, if an image of a finger with movement is input as the subsequent input image, an image is placed on the fingernail with movement, so it is possible to test how the superimposed information looks dynamically. it can.
また、重畳する情報は静止画のネイルチップ以外に、3DやアニメーションなどCGならではの情報を重畳することで、既存のネイルアートでは実現できなかった表現を提供することができる。あるいは、対象領域の向き、大きさ、座標に応じて重畳する情報を変化させることで、インタラクティブなアートを実現することができる。 Further, by superimposing information unique to CG such as 3D or animation in addition to the nail chip of a still image, it is possible to provide an expression that could not be realized with existing nail art. Alternatively, interactive art can be realized by changing the information to be superimposed according to the direction, size, and coordinates of the target area.
上記の実施形態は、図2の処理が全て表示情報形成装置10(情報端末装置)の内部で行われる例であったが、画像撮影(S1)と表示のみを情報端末装置で行い、他の処理(S2〜S5)をサーバで行ってもよい。つまり、撮影した画像情報を情報端末装置から有線又は無線でネットワーク(インターネットなど)に接続されたサーバに送り、サーバ側で前記差分計算処理(S2)、領域形成処理(S3)、姿勢推定処理(S4)および情報重畳処理(S5)を行い、情報重畳処理結果を情報端末装置で受信してその表示部6に表示するようにしてもよい。換言すれば、図1の推定部3,制御部4および記憶部5をサーバ側に置いて、前記の処理をし、処理結果を情報端末装置に送り返すようにしてもよい。
The above embodiment is an example in which all of the processing of FIG. 2 is performed inside the display information forming apparatus 10 (information terminal apparatus), but only the image photographing (S1) and display are performed by the information terminal apparatus. You may perform a process (S2-S5) with a server. That is, the captured image information is sent from the information terminal device to a server connected to a network (such as the Internet) by wire or wirelessly, and the server side performs the difference calculation process (S2), the area formation process (S3), and the attitude estimation process ( The information superimposing process (S5) and the information superimposing process (S5) may be performed and the information superimposing process result may be received by the information terminal device and displayed on the display unit 6. In other words, the estimation unit 3, the control unit 4, and the
1・・・撮像部、2・・・光源、3・・・推定部、4・・・制御部、5・・・記憶部、6・・・表示部、7・・・反射光領域、10・・・表示情報形成装置(情報端末装置)、11・・・小領域、12・・・外接矩形12、13・・・短軸、15・・・爪の根本(付け根)。
DESCRIPTION OF SYMBOLS 1 ... Imaging part, 2 ... Light source, 3 ... Estimation part, 4 ... Control part, 5 ... Memory | storage part, 6 ... Display part, 7 ... Reflected light area, 10 ... display information forming device (information terminal device), 11 ... small region, 12 ... circumscribed
Claims (12)
一定時間間隔で撮影した指領域画像を出力する撮像部と、
前記爪部上に表示する情報を保持する記憶部と、
前記撮像部から出力された指領域画像を解析し、該解析によって求められた光量差分とエッジ検出とに基づいて、前記爪部の位置、向きおよび根元(付け根)を少なくとも推定する推定部と、
前記爪部上に表示する情報を前記記憶部から読み出し、該読み出した表示情報を前記推定部で推定された爪部の位置、向きおよび根本に適合させて、後記表示部に表示させる情報を作成する制御部と、
前記撮像部から出力された画像および前記制御部で作成された情報を少なくとも表示する表示部と、を備えたことを特徴とする表示情報形成装置。 A light source for irradiating the fingernail with light,
An imaging unit that outputs a finger region image captured at regular time intervals;
A storage unit for holding information to be displayed on the nail unit;
Analyzing the finger region image output from the imaging unit , and based on the light amount difference and edge detection obtained by the analysis, an estimation unit that estimates at least the position , orientation, and root (base) of the nail unit ;
Read the information to be displayed on the claw portion from the storage unit, the position of the claw portion estimated by the display information read the said estimation unit, and adapted to the orientation and fundamentally, generates information to be displayed on the later display unit A control unit ,
A display information forming apparatus comprising: a display unit configured to display at least an image output from the imaging unit and information generated by the control unit .
前記撮像部から出力された画像から特定の領域を抽出する差分計算手段と、
前記差分計算手段で抽出された領域を整形する領域形成手段と、
前記領域形成手段で整形された領域から対象領域の位置、向き、根本を推定する姿勢推定手段とを備えたことを特徴とする請求項1に記載の表示情報形成装置。 The estimation unit includes
Difference calculating means for extracting a specific region from the image output from the imaging unit;
Area forming means for shaping the area extracted by the difference calculating means;
2. The display information forming apparatus according to claim 1, further comprising posture estimation means for estimating a position, orientation, and root of the target area from the area shaped by the area forming means.
前記撮像部から出力された指領域画像を解析し、該解析によって求められた光量差分とエッジ検出とに基づいて、前記爪部の位置、向きおよび根本(付け根)を少なくとも推定する推定部と、前記爪部上に表示する情報を保持する記憶部と、前記爪部上に表示する情報を前記記憶部から読み出し、該読み出した表示情報を前記推定部で推定された位置、向きおよび根本に適合させて、前記表示部に表示させる情報を作成する制御部とを少なくとも備えたサーバとからなり、
前記情報端末装置で撮影された画像を前記サーバに伝送し、該サーバ上で前記表示部に表示させる情報を作成することを特徴とする表示情報形成システム。 At least a light source unit that irradiates a fingernail portion with a light amount, an imaging unit that outputs a finger region image captured at regular time intervals, an image output from the imaging unit, and information created by a control unit described later are displayed at least . An information terminal device having at least a display unit;
Analyzing the finger region image output from the imaging unit , and estimating at least the position , orientation, and root (base) of the nail based on the light amount difference and edge detection obtained by the analysis ; a storage unit for holding information to be displayed on said pawl portion, the read information to be displayed on the claw portion from the storage unit, the position of the display information read said estimated by the estimation unit, adapted to the orientation and fundamentally And a server including at least a control unit that creates information to be displayed on the display unit,
An image captured by the information terminal device is transmitted to the server, and information to be displayed on the display unit on the server is created.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009076380A JP5203271B2 (en) | 2009-03-26 | 2009-03-26 | Display information forming apparatus and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009076380A JP5203271B2 (en) | 2009-03-26 | 2009-03-26 | Display information forming apparatus and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010231352A JP2010231352A (en) | 2010-10-14 |
JP5203271B2 true JP5203271B2 (en) | 2013-06-05 |
Family
ID=43047127
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009076380A Expired - Fee Related JP5203271B2 (en) | 2009-03-26 | 2009-03-26 | Display information forming apparatus and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5203271B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012146182A (en) * | 2011-01-13 | 2012-08-02 | Kddi Corp | Nail area detecting device and nail art simulator |
JP5969460B2 (en) * | 2011-03-14 | 2016-08-17 | 聖 星野 | Nail region detection method, program, storage medium, and nail region detection device |
JP5435108B2 (en) * | 2012-11-22 | 2014-03-05 | カシオ計算機株式会社 | Nail printing apparatus and printing control method |
JP6561463B2 (en) * | 2014-12-25 | 2019-08-21 | カシオ計算機株式会社 | Drawing apparatus, drawing apparatus operation control method, and drawing apparatus operation control program |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10162137A (en) * | 1996-12-04 | 1998-06-19 | Tokyo Electric Power Co Inc:The | Device and method for object recognition |
JP2000036032A (en) * | 1998-07-17 | 2000-02-02 | Fujitsu Ltd | Foreground picture extracting method, picture processor, automatic trimming device, recording medium and portrait picture device |
US6286517B1 (en) * | 1998-12-22 | 2001-09-11 | Pearl Technology Holdings, Llc | Fingernail and toenail decoration using ink jets |
JP3016147B1 (en) * | 1998-12-25 | 2000-03-06 | 株式会社アトラス | Nail art equipment |
JP4131097B2 (en) * | 2000-12-27 | 2008-08-13 | カシオ計算機株式会社 | Image processing method, image processing apparatus, and image processing program |
JP2008165316A (en) * | 2006-12-27 | 2008-07-17 | Masako Yokoyama | Nail art content display device and nail art content display system |
JP4873738B2 (en) * | 2007-07-09 | 2012-02-08 | 日本電信電話株式会社 | Text segmentation device, text segmentation method, program, and recording medium |
JP4993000B2 (en) * | 2010-06-25 | 2012-08-08 | カシオ計算機株式会社 | Nail printing device |
-
2009
- 2009-03-26 JP JP2009076380A patent/JP5203271B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010231352A (en) | 2010-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7787022B2 (en) | Red-eye filter method and apparatus | |
JP4307496B2 (en) | Facial part detection device and program | |
US8682097B2 (en) | Digital image enhancement with reference images | |
US8213737B2 (en) | Digital image enhancement with reference images | |
US20120069198A1 (en) | Foreground/Background Separation Using Reference Images | |
WO2008109567A4 (en) | System and method for tracking three dimensional objects | |
JP4783331B2 (en) | Face recognition device | |
CN111597938B (en) | Living body detection and model training method and device | |
WO2016107638A1 (en) | An image face processing method and apparatus | |
JP5203271B2 (en) | Display information forming apparatus and system | |
JP5949030B2 (en) | Image generating apparatus, image generating method, and program | |
JP3459950B2 (en) | Face detection and face tracking method and apparatus | |
JP2004320284A (en) | Digital camera | |
JP2007048108A (en) | Image evaluation system, image evaluation method and image evaluation program | |
CA3170390A1 (en) | Quantifying biotic damage on plants, by separating plant-images and subsequently operating a convolutional neural network | |
JP4664805B2 (en) | Face edge detection device, face edge detection method, and program | |
JP2013058164A (en) | Image processing device and camera | |
JP4831344B2 (en) | Eye position detection method | |
US8223220B2 (en) | Image processing device, image processing method, and information storage medium | |
JP7409440B2 (en) | Image processing device, image processing method and program | |
JP4831361B2 (en) | Eye position detection method and detection system | |
WO2020240989A1 (en) | Imaging device, imaging control method, and imaging control program | |
JP2004013768A (en) | Individual identification method | |
JP5093540B2 (en) | Eye position detection method and detection system | |
WO2005093656A1 (en) | System for estimating attitude at specific part, methode for estimating attitude at specific part, and program for estimating attitude at specific part |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110822 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120704 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120820 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130213 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160222 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |