JP2011228936A - Moving image transmission system, transmitter, receiver, moving image management device, transmission program, reception program, and moving image management program - Google Patents

Moving image transmission system, transmitter, receiver, moving image management device, transmission program, reception program, and moving image management program Download PDF

Info

Publication number
JP2011228936A
JP2011228936A JP2010096949A JP2010096949A JP2011228936A JP 2011228936 A JP2011228936 A JP 2011228936A JP 2010096949 A JP2010096949 A JP 2010096949A JP 2010096949 A JP2010096949 A JP 2010096949A JP 2011228936 A JP2011228936 A JP 2011228936A
Authority
JP
Japan
Prior art keywords
makeup
information
image
transmission
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010096949A
Other languages
Japanese (ja)
Inventor
Hitoshi Nakamura
均 中村
Yasuo Goto
康男 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to JP2010096949A priority Critical patent/JP2011228936A/en
Publication of JP2011228936A publication Critical patent/JP2011228936A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently transmit a moving image with added value.SOLUTION: In a moving image transmission system which transmits a moving image of a person between a transmitter and a receiver through a communication network, the transmitter comprises: transmission-side virtual makeup image generation means of generating a virtual makeup image by putting virtual makeup to an original image that includes the face of a person photographed by imaging means, at a predetermined position of the face; makeup information acquisition means of acquiring makeup information of the virtual makeup image; transmission means of transmitting the makeup information obtained by the makeup information acquisition means and an original image frame separately. The receiver comprises reception-side virtual makeup image generation means of acquiring the makeup information and the original image frame from the transmitter, and generates the virtual makeup image while reflecting the makeup information synchronized with the original image frame based upon identification information or time information added thereto respectively.

Description

本発明は、動画伝送システム、送信装置、受信装置、動画管理装置、送信プログラム、受信プログラム、及び動画管理プログラムに係り、特に付加価値のある動画像を効率的に伝送するための動画伝送システム、送信装置、受信装置、動画管理装置、送信プログラム、受信プログラム、及び動画管理プログラムに関する。   The present invention relates to a moving image transmission system, a transmitting device, a receiving device, a moving image management device, a transmission program, a receiving program, and a moving image management program, and in particular, a moving image transmission system for efficiently transmitting a moving image with added value, The present invention relates to a transmission device, a reception device, a moving image management device, a transmission program, a reception program, and a moving image management program.

従来、テレビ電話やテレビ会議等、画面を通じて相手の顔を見ながら会話するコミュニケーションツールが存在している。しかしながら、特にテレビ電話については、現在のところ一般の家庭やオフィスに広く普及しているとはいい難い状況にある。   2. Description of the Related Art Conventionally, there are communication tools such as a video phone and a video conference that allow a user to talk while looking at the other person's face through a screen. However, it is difficult to say that videophones in particular are currently widely used in homes and offices.

その理由としては、特に女性の場合は、相手がある程度以上に親しい間柄でもない場合等は、自宅で素顔(すっぴん顔)のまま画面に出ることに抵抗があり、特に最近のテレビ電話の映像性能の高品質化により、肌が鮮明に表示されるため、この傾向が更に広がっている。   The reason for this is that, especially in the case of women, when the other party is not a close friend of a certain degree, there is resistance to appearing on the screen with a bare face at home, especially the video performance of recent videophones. Because of the high quality of the skin, the skin is clearly displayed, and this tendency is further spread.

ここで、画面に表示されるユーザの顔に対して、ユーザの顔を撮影した動画像に仮想的にメイクアップを施すメイクアップシミュレーションシステムが存在している(例えば、特許文献1参照。)
このようなシステムでは、撮影したユーザの動画像を表示する表示手段を備え、動画像から所定のトラッキングポイントに基づいてユーザの顔を認識し、更にその認識結果に基づいてユーザの顔の所定の箇所に仮想的にファンデーションや口紅等を塗布して所定のメイクアップを施し表示手段に出力することができる。
Here, there exists a makeup simulation system that virtually applies makeup to a moving image obtained by photographing a user's face with respect to the user's face displayed on the screen (see, for example, Patent Document 1).
Such a system includes display means for displaying a captured user's moving image, recognizes the user's face from the moving image based on a predetermined tracking point, and further determines a predetermined face of the user based on the recognition result. A foundation, lipstick, or the like can be virtually applied to the location, and a predetermined makeup can be applied and output to the display means.

また、テレビ電話等で伝送される動画は、1秒間に何枚かの静止画フレームを連続的に表示する方法が主流となっている。例えば、テレビ電話機能を有する携帯端末の形態では、1秒間に15フレーム程度の送受信が可能であり、ブロードバンド回線に接続するIP電話機の形態では、1秒間に15〜30フレーム程度を送受信できる。また、データを圧縮して通信時の伝送効率を上げるため、同じ条件の画像を連続的に送付するのではなく、差分のみを送信したり、情報の変化を数値に置き換えて送信したり、また回線の混み具合により送付データの質を変化させる等の圧縮をして送付している。   In addition, a method of continuously displaying several still image frames per second is mainly used for moving images transmitted by a video phone or the like. For example, a mobile terminal having a videophone function can transmit and receive about 15 frames per second, and an IP telephone connected to a broadband line can transmit and receive about 15 to 30 frames per second. Also, in order to compress data and improve transmission efficiency during communication, instead of continuously sending images under the same conditions, only the difference is sent, the change in information is replaced with a numerical value, The data is sent after being compressed, such as changing the quality of the sent data depending on how busy the line is.

また、近年では、H.264方式という動画圧縮規格により、MPEG2と同画質で約1/2以下のデータ量で済む圧縮フォーマットが実用化され、ワンセグ放送、Blu−ray DISC、PSP、iPod等の動画映像に広く使用されている。しかしながら、これらは何れもカメラ等で撮影された動画像そのものを送ることが前提となっている。   In recent years, H.C. With the video compression standard of H.264, a compression format that has the same image quality as MPEG2 and requires about 1/2 or less data volume has been put into practical use, and is widely used for video images such as One-Seg broadcasting, Blu-ray DISC, PSP, iPod Yes. However, all of these are based on the premise that a moving image taken by a camera or the like is sent.

特開2007−216000号公報JP 2007-216000 A

ここで、上述したシステムで生成された仮想メイクアップシミュレーション画像をテレビ電話等で使用するためには、話し相手によって素顔やメイク顔を自由に選択できるのがユーザにとっては好ましく、また、どの程度メイクされたかをデータ量的に判断して利用者に対して課金処理等を施すのが好ましい。このような場合、単純に素顔画像にメイク画像を合成した後に送信したのでは、素顔とメイク顔の切り替えやメイク分のデータ量や伝送効率等を正確に取得することができない。   Here, in order to use the virtual makeup simulation image generated by the above-described system in a videophone or the like, it is preferable for the user that the face or makeup face can be freely selected by the talking partner, and how much makeup is applied. It is preferable to perform a charging process or the like on the user by judging whether the amount of data is high. In such a case, if the makeup image is simply combined with the makeup image and then transmitted, it is not possible to accurately acquire the switching between the makeup face and the makeup face, the amount of makeup data, the transmission efficiency, and the like.

つまり、上述した従来のシステム構成は、上記の内容を想定していたものではなく、メイクシミュレーションが施された合成画像のみを伝送しても上述の課題に対応することができない。   That is, the above-described conventional system configuration does not assume the above-described contents, and even if only a composite image subjected to makeup simulation is transmitted, the above-described problem cannot be dealt with.

更に、近年では、テレビ電話の利用時に直接顔を見せたくない相手に対して、自分の代わりに好きなキャラクターを表示させる、いわゆる「キャラ電」と呼ばれる仕組みが存在する。しかしながら、「キャラ電」は、直接本人の顔が表示されないため、テレビ電話の存在意義からいっても好ましいものとはいえない。   Further, in recent years, there is a so-called “Chara-den” mechanism that displays a favorite character instead of oneself to a person who does not want to show his / her face when using a videophone. However, “Chara-den” is not preferable from the viewpoint of the existence of a videophone because the person's face is not directly displayed.

本発明は、上述した課題に鑑みてなされたものであって、付加価値のある動画像を効率的に伝送するための動画伝送システム、送信装置、受信装置、動画管理装置、送信プログラム、受信プログラム、及び動画管理プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and is a moving image transmission system, a transmission device, a reception device, a moving image management device, a transmission program, and a reception program for efficiently transmitting a value-added moving image. It is an object to provide a video management program.

上述した課題を解決するために、本件発明は、以下の特徴を有する課題を解決するための手段を採用している。   In order to solve the above-described problems, the present invention employs means for solving the problems having the following characteristics.

請求項1に記載された発明は、通信ネットワークを介して送信装置と受信装置との間で人物の動画像を伝送する動画伝送システムにおいて、前記送信装置は、撮像手段により撮影された前記人物の顔を含む原画像に対して、前記顔の所定の位置に仮想メイクアップを施した仮想メイク画像を生成する送信側仮想メイク画像生成手段と、前記送信側仮想メイク画像生成手段により得られる仮想メイク画像のメイク情報を取得するメイク情報取得手段と、前記メイク情報取得手段により得られるメイク情報と元の原画像フレームとを別々に前記受信装置に送信する送信手段とを有し、前記受信装置は、前記送信装置から前記メイク情報と前記原画像フレームとを取得し、それぞれに付加されている識別情報又は時間情報に基づいて、前記原画像フレームに同期した前記メイク情報を反映させて前記仮想メイク画像を生成する受信側仮想メイク画像生成手段とを有することを特徴とする。   According to a first aspect of the present invention, in the video transmission system for transmitting a moving image of a person between a transmission device and a reception device via a communication network, the transmission device is configured to transmit the person captured by an imaging unit. A transmission-side virtual makeup image generation unit that generates a virtual makeup image in which virtual makeup is applied to a predetermined position of the face with respect to an original image including a face; and a virtual makeup obtained by the transmission-side virtual makeup image generation unit Makeup information acquisition means for acquiring makeup information of the image, and transmission means for separately transmitting the makeup information obtained by the makeup information acquisition means and the original original image frame to the reception device, The makeup information and the original image frame are acquired from the transmission device, and the original image frame is obtained based on the identification information or time information added to each. And having a receiving-side virtual makeup image generating means for generating the virtual makeup image by reflecting the makeup information synchronized with the over arm.

請求項1記載の発明によれば、仮想メイクアップ画像を付加的に生成し、その情報を少ないデータ量で伝送することができるため、付加価値のある動画像を効率的に伝送することができる。   According to the first aspect of the present invention, since a virtual makeup image can be additionally generated and the information can be transmitted with a small amount of data, a value-added moving image can be efficiently transmitted. .

請求項2に記載された発明は、前記通信ネットワークを介して前記送信装置及び前記受信装置とデータの送受信が可能な動画伝送管理装置を有し、動画伝送管理装置は、前記送信装置から前記メイク情報を取得し、取得した前記メイク情報のデータ量を取得するデータ量取得手段と、前記データ量取得手段により得られるデータ量に基づいて、前記動画像の伝送に対する課金を行う課金手段とを有することを特徴とする。   The invention described in claim 2 includes a moving image transmission management device capable of transmitting and receiving data to and from the transmitting device and the receiving device via the communication network, and the moving image transmission management device receives the make-up from the transmitting device. Data amount acquisition means for acquiring information and acquiring the data amount of the acquired makeup information; and charging means for charging for transmission of the moving image based on the data amount obtained by the data amount acquisition means It is characterized by that.

請求項2記載の発明によれば、動画伝送管理装置により、仮想メイクアップシミュレーションの動画伝送時における課金処理を効率的且つ正確に行うことができる。   According to the second aspect of the present invention, the billing process at the time of moving picture transmission of the virtual makeup simulation can be performed efficiently and accurately by the moving picture transmission management apparatus.

請求項3に記載された発明は、前記メイク情報取得手段は、前記送信側仮想メイク画像生成手段により得られる仮想メイク画像から、顔のパーツの輪郭情報及び塗布エリアを含むベクターデータと、メイクテクニックに関する数値情報を含むパラメータ情報とを有するメイク情報を取得することを特徴とする。   According to a third aspect of the present invention, the makeup information acquisition means includes vector data including facial part contour information and application areas from a virtual makeup image obtained by the transmission-side virtual makeup image generation means, and a makeup technique. And makeup information having parameter information including numerical information on the image.

請求項3記載の発明によれば、情報量の少ないメイク情報のみを伝送することになるため、データ量を削減することができ伝送効率を向上させると共に、伝送中のデータの内容を第三者に見られても具体的な内容を把握することができないため、秘匿性を向上させることができる。   According to the third aspect of the present invention, since only makeup information with a small amount of information is transmitted, the amount of data can be reduced, the transmission efficiency can be improved, and the content of data being transmitted can be transferred to a third party. Even if it is seen, it is impossible to grasp the specific contents, so that confidentiality can be improved.

請求項4に記載された発明は、前記動画伝送管理装置は、前記受信装置毎に予め設定されたユーザ情報又は送信設定内容に基づいて、前記メイク情報の内容を変更し、変更されたメイク情報を送信することを特徴とする。   In the invention described in claim 4, the moving picture transmission management device changes the content of the makeup information based on user information or transmission setting content preset for each receiving device, and the changed makeup information. Is transmitted.

請求項4記載の発明によれば、複数の受信装置に対して、異なる仮想メイク画像を容易に生成させることができる。   According to the fourth aspect of the present invention, it is possible to easily generate different virtual makeup images for a plurality of receiving apparatuses.

請求項5に記載された発明は、前記動画伝送管理装置は、前記受信装置のユーザ情報を抽出し、抽出した前記ユーザ情報に基づいて、通話中の前記受信装置に対して前記メイク情報が送信可能な否かを判断し、送信可能な場合に前記メイク情報を送信することを特徴とする。   According to a fifth aspect of the present invention, the moving picture transmission management device extracts user information of the receiving device, and based on the extracted user information, the make information is transmitted to the receiving device during a call. It is determined whether or not it is possible, and when the transmission is possible, the makeup information is transmitted.

請求項5記載の発明によれば、受信装置毎に適切な情報を送信することができる。   According to the fifth aspect of the present invention, it is possible to transmit appropriate information for each receiving device.

請求項6に記載された発明は、通信ネットワークを介して所定の受信装置に対して動画像を伝送する送信装置において、撮像手段により撮影された前記人物の顔を含む原画像に対して、前記顔の所定の位置に仮想メイクアップを施した仮想メイク画像を生成する仮想メイク画像生成手段と、前記仮想メイク画像生成手段により得られる仮想メイク画像のメイク情報を取得するメイク情報取得手段と、前記メイク情報取得手段により得られるメイク情報と元の原画像フレームとを別々に前記受信装置に送信する送信手段とを有することを特徴とする。   According to a sixth aspect of the present invention, in a transmission device that transmits a moving image to a predetermined reception device via a communication network, the original image including the face of the person photographed by an imaging unit is Virtual makeup image generation means for generating a virtual makeup image obtained by performing virtual makeup on a predetermined position of the face; makeup information acquisition means for acquiring makeup information of a virtual makeup image obtained by the virtual makeup image generation means; Transmitter means for separately transmitting makeup information obtained by the makeup information acquisition means and the original original image frame to the receiving device.

請求項6記載の発明によれば、仮想メイクアップ画像を付加的に生成し、その情報を少ないデータ量で伝送することができるため、付加価値のある動画像を効率的に伝送することができる。   According to the sixth aspect of the present invention, since a virtual makeup image can be additionally generated and the information can be transmitted with a small amount of data, a value-added moving image can be efficiently transmitted. .

請求項7に記載された発明は、前記メイク情報取得手段は、前記仮想メイク画像生成手段により得られる仮想メイク画像から、顔のパーツの輪郭情報及び塗布エリアを含むベクターデータと、メイクテクニックに関する数値情報を含むパラメータ情報とを有するメイク情報を取得することを特徴とする。   According to a seventh aspect of the present invention, the makeup information acquisition means includes vector data including facial part contour information and application areas from the virtual makeup image obtained by the virtual makeup image generation means, and numerical values relating to makeup techniques. Makeup information having parameter information including information is acquired.

請求項7記載の発明によれば、上述した少ない情報であっても原画像に対する仮想メイク画像を生成することができる。   According to the seventh aspect of the present invention, it is possible to generate a virtual makeup image for the original image even with the small amount of information described above.

請求項8に記載された発明は、通信ネットワークを介して所定の送信装置から送信された動画像を受信する受信装置において、前記送信装置にて撮影された原画像フレームを取得する原画像取得手段と、前記送信装置にて処理された前記原画像フレームに対する仮想メイク画像の生成により得られるメイク情報と取得するメイク情報取得手段と、前記原画像取得手段により得られる前記原画像フレームと前記メイク情報取得手段により得られるメイク情報とにそれぞれに付加されている識別情報又は時間情報に基づいて、前記原画像フレームに同期した前記メイク情報を反映させて前記仮想メイク画像を生成する仮想メイク画像生成手段とを有することを特徴とする。   According to an eighth aspect of the present invention, in a receiving device that receives a moving image transmitted from a predetermined transmitting device via a communication network, an original image acquiring unit that acquires an original image frame photographed by the transmitting device. Makeup information obtained by generating a virtual makeup image for the original image frame processed by the transmission apparatus, makeup information obtaining means for obtaining, the original image frame obtained by the original image obtaining means and the makeup information Virtual makeup image generation means for generating the virtual makeup image by reflecting the makeup information synchronized with the original image frame based on identification information or time information added to makeup information obtained by the acquisition means. It is characterized by having.

請求項8記載の発明によれば、原画像フレームとメイク情報とから仮想メイクアップ画像を付加的に生成することができ、これにより、付加価値のあるサービスを提供することができる。   According to the eighth aspect of the invention, it is possible to additionally generate a virtual makeup image from the original image frame and the makeup information, thereby providing a service with added value.

請求項9に記載された発明は、通信ネットワークを介して送信装置と受信装置との間で送受信される人物の動画像を管理する動画伝送管理装置において、前記送信装置において、撮像手段により撮影された前記人物の顔を含む原画像に対して前記顔の所定の位置に仮想メイクアップを施した仮想メイク画像を生成した際に得られるメイク情報のデータ量を取得するデータ量取得手段と、前記データ量取得手段により得られるデータ量に基づいて、前記動画像の伝送に対する課金を行う課金手段と、前記受信装置に対応させて前記メイク情報の内容を変更し、変更されたメイク情報を送信させる送信設定手段とを有することを特徴とする。   The invention described in claim 9 is a moving picture transmission management apparatus that manages a moving image of a person transmitted and received between a transmission apparatus and a reception apparatus via a communication network, and is photographed by an imaging unit in the transmission apparatus. A data amount acquisition means for acquiring a data amount of makeup information obtained when generating a virtual makeup image obtained by performing virtual makeup on a predetermined position of the face with respect to an original image including the face of the person; Based on the data amount obtained by the data amount acquisition means, charging means for charging for transmission of the moving image, and changing the contents of the makeup information in correspondence with the receiving device, and transmitting the changed makeup information Transmission setting means.

請求項9記載の発明によれば、メイク情報のデータ量に基づいて、適切な課金設定を行うことができる。   According to the ninth aspect of the present invention, it is possible to perform appropriate charging setting based on the data amount of makeup information.

請求項10に記載された発明は、前記受信装置のユーザ情報を抽出し、抽出した前記ユーザ情報に基づいて、通話中の前記受信装置に対して前記メイク情報が送信可能な否かを判断し、送信可能な場合に前記メイク情報を送信させる端末管理手段を有することを特徴とする。   The invention described in claim 10 extracts user information of the receiving device, and determines whether the makeup information can be transmitted to the receiving device during a call based on the extracted user information. And terminal management means for transmitting the makeup information when transmission is possible.

請求項10記載の発明によれば、受信装置毎に適切な情報を送信することができる。   According to the tenth aspect of the present invention, it is possible to transmit appropriate information for each receiving device.

請求項11に記載された発明は、通信ネットワークを介して所定の受信装置に対して動画像を伝送する送信装置における送信プログラムにおいて、コンピュータを、撮像手段により撮影された前記人物の顔を含む原画像に対して、前記顔の所定の位置に仮想メイクアップを施した仮想メイク画像を生成する仮想メイク画像生成手段、前記仮想メイク画像生成手段により得られる仮想メイク画像のメイク情報を取得するメイク情報取得手段、及び、前記メイク情報取得手段により得られるメイク情報と元の原画像フレームとを別々に前記受信装置に送信する送信手段として機能させる。   According to an eleventh aspect of the present invention, in a transmission program in a transmission device that transmits a moving image to a predetermined reception device via a communication network, the computer includes an original including the face of the person photographed by the imaging means. Virtual makeup image generation means for generating a virtual makeup image obtained by performing virtual makeup on a predetermined position of the face with respect to an image, makeup information for acquiring makeup information of a virtual makeup image obtained by the virtual makeup image generation means It functions as an acquisition means and a transmission means for separately transmitting the makeup information obtained by the makeup information acquisition means and the original original image frame to the receiving device.

請求項11記載の発明によれば、仮想メイクアップ画像を付加的に生成し、その情報を少ないデータ量で伝送することができるため、付加価値のある動画像を効率的に伝送することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における送信処理を容易に実現することができる。   According to the eleventh aspect of the present invention, since a virtual makeup image can be additionally generated and the information can be transmitted with a small amount of data, a value-added moving image can be efficiently transmitted. . Further, by installing the program, the transmission processing in the present invention can be easily realized by a general-purpose personal computer or the like.

請求項12に記載された発明は、前記メイク情報取得手段は、前記仮想メイク画像生成手段により得られる仮想メイク画像から、顔のパーツの輪郭情報及び塗布エリアを含むベクターデータと、メイクテクニックに関する数値情報を含むパラメータ情報とを有するメイク情報を取得することを特徴とする。   In the invention described in claim 12, the makeup information acquisition means includes vector data including contour information and application areas of facial parts from the virtual makeup image obtained by the virtual makeup image generation means, and numerical values relating to makeup techniques. Makeup information having parameter information including information is acquired.

請求項12記載の発明によれば、上述した少ない情報であっても原画像に対する仮想メイク画像を生成することができる。   According to the twelfth aspect of the present invention, it is possible to generate a virtual makeup image for the original image even with the small amount of information described above.

請求項13に記載された発明は、通信ネットワークを介して所定の送信装置から送信された動画像を受信する受信装置における受信プログラムにおいて、コンピュータを、前記送信装置にて撮影された原画像フレームを取得する原画像取得手段、前記送信装置にて処理された前記原画像フレームに対する仮想メイク画像の生成により得られるメイク情報と取得するメイク情報取得手段、及び、前記原画像取得手段により得られる前記原画像フレームと前記メイク情報取得手段により得られるメイク情報とにそれぞれに付加されている識別情報又は時間情報に基づいて、前記原画像フレームに同期した前記メイク情報を反映させて前記仮想メイク画像を生成する仮想メイク画像生成手段として機能させる。   According to a thirteenth aspect of the present invention, in a receiving program in a receiving device that receives a moving image transmitted from a predetermined transmitting device via a communication network, an original image frame captured by the transmitting device is received by a computer. Original image acquisition means to acquire, makeup information obtained by generating a virtual makeup image for the original image frame processed by the transmission device, makeup information acquisition means to acquire, and the original image obtained by the original image acquisition means The virtual makeup image is generated by reflecting the makeup information synchronized with the original image frame based on identification information or time information added to the image frame and the makeup information obtained by the makeup information acquisition unit, respectively. Function as virtual makeup image generation means.

請求項13記載の発明によれば、原画像フレームとメイク情報とから仮想メイクアップ画像を付加的に生成することができ、これにより、付加価値のあるサービスを提供することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における受信処理を容易に実現することができる。   According to the thirteenth aspect of the present invention, it is possible to additionally generate a virtual makeup image from the original image frame and the makeup information, thereby providing a value-added service. Also, by installing the program, the reception processing in the present invention can be easily realized by a general-purpose personal computer or the like.

請求項14に記載された発明は、通信ネットワークを介して送信装置と受信装置との間で送受信される人物の動画像を管理する動画伝送管理装置における動画伝送管理プログラムにおいて、コンピュータを、前記送信装置において、撮像手段により撮影された前記人物の顔を含む原画像に対して前記顔の所定の位置に仮想メイクアップを施した仮想メイク画像を生成した際に得られるメイク情報のデータ量を取得するデータ量取得手段、前記データ量取得手段により得られるデータ量に基づいて、前記動画像の伝送に対する課金を行う課金手段、及び、前記受信装置に対応させて前記メイク情報の内容を変更し、変更されたメイク情報を送信させる送信設定手段として機能させる。   According to a fourteenth aspect of the present invention, there is provided a video transmission management program in a video transmission management apparatus that manages a moving image of a person transmitted and received between a transmission device and a reception device via a communication network. In the apparatus, a data amount of makeup information obtained when a virtual makeup image is generated by performing virtual makeup on a predetermined position of the face with respect to an original image including the face of the person photographed by an imaging unit. Data amount acquisition means, charging means for charging for transmission of the moving image based on the data amount obtained by the data amount acquisition means, and changing the contents of the makeup information corresponding to the receiving device, It functions as a transmission setting means for transmitting the changed makeup information.

請求項14記載の発明によれば、メイク情報のデータ量に基づいて、適切な課金設定を行うことができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における動画伝送処理を容易に実現することができる。   According to the fourteenth aspect of the present invention, it is possible to perform appropriate billing settings based on the data amount of makeup information. Further, by installing the program, the moving image transmission process according to the present invention can be easily realized by a general-purpose personal computer or the like.

請求項15に記載された発明は、前記受信装置のユーザ情報を抽出し、抽出した前記ユーザ情報に基づいて、通話中の前記受信装置に対して前記メイク情報が送信可能な否かを判断し、送信可能な場合に前記メイク情報を送信させる端末管理手段を有することを特徴とする。   The invention described in claim 15 extracts user information of the receiving device, and determines whether the makeup information can be transmitted to the receiving device during a call based on the extracted user information. And terminal management means for transmitting the makeup information when transmission is possible.

請求項15記載の発明によれば、受信装置毎に適切な情報を送信することができる。   According to the fifteenth aspect of the present invention, appropriate information can be transmitted for each receiving device.

本発明によれば、付加価値のある動画像を効率的に伝送することができる。   According to the present invention, a moving image with added value can be efficiently transmitted.

本実施形態における動画伝送システムのシステム構成の一例を説明するための図である。It is a figure for demonstrating an example of the system configuration | structure of the moving image transmission system in this embodiment. 第1の実施形態における送信装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the transmitter in 1st Embodiment. 第1の実施形態における動画管理サーバの機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the moving image management server in 1st Embodiment. 第1の実施形態における受信装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the receiver in 1st Embodiment. 本実施形態における画像フレームの伝送の様子を説明するための図である。It is a figure for demonstrating the mode of transmission of the image frame in this embodiment. 本実施形態におけるメイク情報の生成処理について説明するための図である。It is a figure for demonstrating the production | generation process of the makeup information in this embodiment. 動画管理サーバにおける課金処理の一例を示すものである。7 shows an example of a billing process in the moving image management server. 仮想メイクアップシミュレーションにおけるパラメータ情報の一例を示す図である。It is a figure which shows an example of the parameter information in virtual makeup simulation. 動画管理サーバの具体的な動作を説明するための図である。It is a figure for demonstrating the specific operation | movement of a moving image management server. 第2の実施形態における送信装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the transmitter in 2nd Embodiment. 第2の実施形態における分離処理の実施例について説明するための図である。It is a figure for demonstrating the Example of the separation process in 2nd Embodiment. 本実施形態における動画伝送処理が実現可能なハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions which can implement | achieve the moving image transmission process in this embodiment. 本実施形態における送信処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the transmission processing procedure in this embodiment. 本実施形態における動画管理処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the moving image management processing procedure in this embodiment. 本実施形態における受信処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the reception processing procedure in this embodiment.

<本発明について>
本発明は、例えばテレビ電話やテレビ会議、携帯電話等のモバイル端末等、各コミュニケーションツールにおいて送信側と受信側にソフトウェアをインストールさせ、送信側で撮影された動画像等に対する仮想メイクアップにより得られたメイク情報等を、撮影されたユーザのオリジナルの動画情報の送信とは別に送信し、受信側若しくは動画管理サーバ側等で仮想メイク画像を合成して受信装置に表示させる。
<About the present invention>
The present invention can be obtained by virtual make-up on moving images taken on the transmission side by installing software on the transmission side and the reception side in each communication tool such as a mobile terminal such as a video phone, a video conference, and a mobile phone. The makeup information and the like are transmitted separately from the transmission of the original moving image information of the photographed user, and the virtual makeup image is synthesized on the receiving side or the moving image management server side and displayed on the receiving device.

具体的には、送信側からオリジナルの動画ストリーム信号として連続した画像フレーム(ラスター情報)を送信するタイミングに同期させて、その画像フレームに対応するメイク情報(例えば、ベクター情報やパラメータ情報)等を送信する。このようにメイク情報のみを画像フレームと分けて送信することにより、そのデータ量やデータの内容等による伝送時の課金処理等を行う場合、その情報量を基準に効率的に算出することができ、ユーザ毎の利用内容に応じて適切な課金設定を高精度に行うことができる。   Specifically, in synchronization with the timing of transmitting a continuous image frame (raster information) as an original video stream signal from the transmission side, makeup information (for example, vector information or parameter information) corresponding to the image frame is transmitted. Send. In this way, by transmitting only makeup information separately from image frames, when performing charging processing at the time of transmission based on the amount of data or the contents of the data, it is possible to efficiently calculate based on that amount of information. Therefore, it is possible to perform an appropriate billing setting with high accuracy according to the usage contents for each user.

以下に、本発明における動画伝送システム、送信装置、受信装置、動画管理装置、送信プログラム、受信プログラム、及び動画管理プログラムを好適に実施した形態について、図面を用いて説明する。   Hereinafter, embodiments in which a moving image transmission system, a transmission device, a receiving device, a moving image management device, a transmission program, a reception program, and a moving image management program according to the present invention are suitably implemented will be described with reference to the drawings.

<動画伝送システム:システム構成例>
まず、本実施形態におけるシステム構成例について図を用いて説明する。図1は、本実施形態における動画伝送システムのシステム構成の一例を説明するための図である。
<Video transmission system: system configuration example>
First, a system configuration example according to this embodiment will be described with reference to the drawings. FIG. 1 is a diagram for explaining an example of a system configuration of a moving image transmission system according to the present embodiment.

図1に示す動画伝送システム10は、送信装置11と、動画管理サーバ12と、受信装置13とを有するよう構成されており、各構成がインターネットや電話回線等の通信ネットワーク14により、データや制御信号が送受信可能な状態で接続されている。   A moving picture transmission system 10 shown in FIG. 1 is configured to include a transmitting apparatus 11, a moving picture management server 12, and a receiving apparatus 13. Each component is controlled by a communication network 14 such as the Internet or a telephone line for data and control. Connected in a state where signals can be transmitted and received.

なお、図1において、送信装置11は、動画撮影可能なカメラ(撮像手段)付き携帯端末11−1であってもよく、また通常のパーソナルコンピュータ(PC)11−2であってもよい。また、受信装置13も同様に、動画撮影可能なカメラ付き携帯端末13−1であってもよく、PC13−2であってもよい。このとき、PC11−2,13−2に対しては、送信側、受信側の各ユーザの動画像を送受信するために、それぞれにユーザの顔を撮影する撮像手段15−1,15−2が設けられている。   In FIG. 1, the transmission device 11 may be a mobile terminal 11-1 with a camera (imaging means) capable of shooting a moving image, or may be a normal personal computer (PC) 11-2. Similarly, the receiving device 13 may be a camera-equipped mobile terminal 13-1 capable of shooting a moving image, or may be a PC 13-2. At this time, to the PCs 11-2 and 13-2, in order to transmit and receive the moving images of the users on the transmission side and the reception side, the imaging units 15-1 and 15-2 that respectively photograph the user's face. Is provided.

なお、送信装置11及び受信装置13は、それぞれテレビ電話機能により双方向通信を実現するために、送信側と受信側の両方の機能を有する構成となるが、以下の説明では便宜上、送信装置11により送信される機能と受信装置13により受信される機能とをそれぞれ分けて説明する。   The transmission device 11 and the reception device 13 are configured to have both functions of the transmission side and the reception side in order to realize bidirectional communication by the videophone function, but in the following description, for the sake of convenience, the transmission device 11 The function transmitted by the above and the function received by the receiving device 13 will be described separately.

送信装置11は、テレビ電話等における送信側の機能を実現するための端末である。具体的には、送信装置11は、撮像装置15−1により撮影されたユーザの顔画像をリアルタイムに動画で取得する。また、送信装置11は、撮像装置15−1により撮影された動画を構成する画像に対して、ユーザからの指示情報や予め設定された基本メイク情報等に基づき、仮想メイクアップシミュレーションによる仮想メイク画像を生成する。なお、仮想メイクアップシミュレーションについては、上述した特許文献1に示される手法等を用いることができる。   The transmission device 11 is a terminal for realizing a transmission-side function in a video phone or the like. Specifically, the transmission device 11 acquires a user's face image captured by the imaging device 15-1 as a moving image in real time. In addition, the transmission device 11 performs a virtual makeup image based on a virtual makeup simulation based on instruction information from a user, preset basic makeup information, and the like for an image constituting a moving image photographed by the imaging device 15-1. Is generated. In addition, about the virtual makeup simulation, the method etc. which are shown by the patent document 1 mentioned above can be used.

なお、本実施形態において実施される仮想メイクは、通常、顔(例えば、唇(口元)、目元、眉毛、睫毛、頬等の全部又は一部等)に対するメイクであるが、本発明においてはこれに限定されず、例えば、髪型やヘアカラー、帽子、眼鏡、イヤリング、ネックレス、衣類、背景等についても、ユーザによる設定或いは予め設定された内容に基づいてシミュレーションすることができる。   Note that the virtual makeup performed in the present embodiment is usually makeup for the face (for example, all or part of the lips (mouth), eyes, eyebrows, eyelashes, cheeks, etc.). For example, hairstyles, hair colors, hats, glasses, earrings, necklaces, clothing, backgrounds, and the like can be simulated based on user settings or preset contents.

送信装置11のユーザは、予め設定されたいろいろなパターンの仮想メイクをシミュレーションしながら好みのメイクを選択する。なお、本実施形態における仮想メイクシミュレーションの具体例については後述する。その後、送信装置11は、撮影された動画像を構成する原画像フレームと、シミュレーションにより得られたメイク情報等とをそれぞれ別々に受信側に送信する。   The user of the transmission device 11 selects a favorite makeup while simulating virtual makeups of various preset patterns. A specific example of the virtual makeup simulation in the present embodiment will be described later. Thereafter, the transmission device 11 separately transmits the original image frame constituting the captured moving image and the makeup information obtained by the simulation to the reception side.

なお、送信装置11は、オリジナルの動画情報(ラスター情報)とメイク情報(ベクター情報、パラメータ情報)とを同期させて送信する。具体的には、上述した2つの画像フレームを伝送する際に、同一のタイムスタンプ等の時間情報を付加する。   The transmission device 11 transmits original moving image information (raster information) and makeup information (vector information, parameter information) in synchronization. Specifically, when transmitting the above-described two image frames, time information such as the same time stamp is added.

また、送信装置11は、動画管理サーバ12又は受信装置13等の受信側で合成される動画情報とメイク情報に対して、その画像フレームに対する同一のフレーム識別情報を付加する。これにより、受信装置13は、上述した時間情報やフレーム識別情報に基づいて、ラスター情報と、メイク情報を容易且つ正確に合成することができる。   Further, the transmission device 11 adds the same frame identification information for the image frame to the moving image information and the makeup information synthesized on the receiving side such as the moving image management server 12 or the receiving device 13. Thereby, the receiving apparatus 13 can synthesize | combine raster information and makeup information easily and correctly based on the time information and frame identification information mentioned above.

なお、本実施形態における送信方式としては、例えば一般的な動画圧縮規格によりパケットデータ等によってストリーム送信することができるが、本発明においては特に限定されるものではない。   As a transmission method in the present embodiment, for example, stream transmission can be performed by packet data or the like according to a general video compression standard, but the present invention is not particularly limited.

また、送信装置11は、メイク情報ではなく、シミュレーション画像の生成により得られるメイク情報を送信することができる。また、送信装置11は、設定したメイク情報をメモリ等の蓄積手段に蓄積しておき、テレビ電話時に迅速にメイク情報を蓄積手段から読み出して利用することができる。   Further, the transmission device 11 can transmit makeup information obtained by generating a simulation image instead of makeup information. Further, the transmission device 11 can store the set makeup information in a storage unit such as a memory, and can quickly read the makeup information from the storage unit and use it during a videophone call.

ここで、送信装置11は、画像フレームやメイク情報等の送信時には、発呼処理等により電話をかけたテレビ電話の相手の送信装置13に通信ネットワーク14を介して送信する。このとき、送信装置11は、オリジナルの動画情報(原画像フレーム)を従来の通信手法により目的の送信装置13に送信し、またメイク情報を動画管理サーバ12に送信する。この場合、動画管理サーバ12は、メイク情報やメイク情報の情報量等に基づいた課金等の処理を行うことができる。なお、送信装置11は、オリジナルの動画情報も動画管理サーバ12に送信してもよい。   Here, when transmitting image frames, makeup information, and the like, the transmission device 11 transmits the communication device 14 via the communication network 14 to the transmission device 13 that is the other party of the videophone that makes a call by calling processing or the like. At this time, the transmission device 11 transmits the original moving image information (original image frame) to the target transmission device 13 by a conventional communication method, and transmits the makeup information to the moving image management server 12. In this case, the moving image management server 12 can perform processing such as charging based on makeup information, the amount of makeup information, and the like. Note that the transmission device 11 may also transmit the original moving image information to the moving image management server 12.

動画管理サーバ12は、受信装置11から送信装置13へ伝送される仮想メイク情報を取得し、取得した仮想メイク情報の情報量やデータの内容等に基づいて課金処理を行う。   The moving image management server 12 acquires virtual makeup information transmitted from the reception device 11 to the transmission device 13, and performs a charging process based on the information amount of the acquired virtual makeup information, the contents of data, and the like.

また、動画管理サーバ12は、必要に応じてオリジナルの動画情報も取得し、その原画像フレームと同期可能に送信されるメイク情報とを合成して、仮想メイク画像を生成し、生成した画像を送信装置13に送信してもよい。   Further, the moving image management server 12 also acquires original moving image information as necessary, combines the original image frame with the makeup information transmitted in synchronism, generates a virtual makeup image, and generates the generated image. You may transmit to the transmission apparatus 13.

この場合、動画管理サーバ12には、予め原画像フレームとメイク情報とを合成するためのソフトウェアがインストールされており、合成時にはインストールされたソフトウェアを実行させ、原画像フレームにメイク情報が自動的に合成され、メイク情報が生成される。   In this case, software for synthesizing the original image frame and the makeup information is installed in the moving image management server 12 in advance, and the installed software is executed at the time of synthesis so that the makeup information is automatically added to the original image frame. It is synthesized and makeup information is generated.

また、動画管理サーバ12には、メイク情報に基づいて、各ユーザに対応するメイクの内容、画像等が蓄積された仮想メイク情報DBを有しており、メイク情報に基づいて仮想メイク情報DBから抽出されたシミュレーション内容を原画像に施すことで、仮想メイク画像を生成することができる。   Further, the moving image management server 12 has a virtual makeup information DB in which makeup contents, images and the like corresponding to each user are stored based on makeup information, and from the virtual makeup information DB based on makeup information. By applying the extracted simulation contents to the original image, a virtual makeup image can be generated.

更に、動画管理サーバ12は、送信装置13のユーザ情報を抽出し、抽出したユーザ情報に基づいて、通話中の送信装置13に対してメイク情報が送信可能な否かを判断し、送信可能な場合にメイク情報を送信することができる。   Furthermore, the moving image management server 12 extracts user information of the transmission device 13, determines whether makeup information can be transmitted to the transmitting device 13 during a call based on the extracted user information, and can transmit the information. In case you can send makeup information.

受信装置13は、送信装置11から得られるオリジナルの動画情報(原画像フレーム)と、動画管理サーバ12から得られるメイク情報とを合成して、ディスプレイ等の表示画面により表示する。また、受信装置13は、動画管理サーバ12により既に合成された仮想メイク画像を受信した場合には、そのまま表示画面に表示する。   The receiving device 13 combines the original moving image information (original image frame) obtained from the transmitting device 11 and the makeup information obtained from the moving image management server 12 and displays the synthesized information on a display screen such as a display. In addition, when receiving the virtual makeup image already synthesized by the moving image management server 12, the receiving device 13 displays it on the display screen as it is.

これにより、送信側のユーザが化粧をしていない場合でも仮想メイクを施した画像を受信側に表示させることができるため、送信側のユーザは何ら躊躇することなく、送信相手とテレビ電話にて会話することができる。   As a result, even if the user on the transmitting side is not wearing makeup, an image with virtual makeup can be displayed on the receiving side, so that the user on the transmitting side can make a videophone call with the other party without any hesitation I can talk.

なお、受信装置13が送信装置からの通話中では、双方向通信であるため、例えば受信装置13−2にもユーザの顔を撮影する撮像装置15−2が設けられている。   Note that since the receiving device 13 is in a two-way communication during a call from the transmitting device, for example, the receiving device 13-2 is also provided with an imaging device 15-2 that captures the face of the user.

上述した処理により、原画像とは別にメイク画像等を伝送することで付加価値のある動画像を効率的に伝送することができる。次に、上述した送信装置11、動画管理サーバ12、及び受信装置13における各機能構成について図を用いて具体的に説明する。   By the above-described processing, it is possible to efficiently transmit a value-added moving image by transmitting a makeup image or the like separately from the original image. Next, each functional configuration in the transmission device 11, the moving image management server 12, and the reception device 13 described above will be specifically described with reference to the drawings.

<第1の実施形態>
<送信装置11:機能構成例>
第1の実施形態における送信装置11の機能構成例について、図を用いて説明する。図2は、第1の実施形態における送信装置の機能構成の一例を示す図である。図2に示す送信装置11は、入力手段21と、出力手段22と、蓄積手段23と、撮像手段24と、仮想メイク画像生成手段25と、メイク情報取得手段26と、画面生成手段27と、送受信手段28と、制御手段29とを有するよう構成されている。
<First Embodiment>
<Transmitter 11: Functional Configuration Example>
An example of a functional configuration of the transmission device 11 according to the first embodiment will be described with reference to the drawings. FIG. 2 is a diagram illustrating an example of a functional configuration of the transmission device according to the first embodiment. 2 includes an input unit 21, an output unit 22, a storage unit 23, an imaging unit 24, a virtual makeup image generation unit 25, a makeup information acquisition unit 26, a screen generation unit 27, A transmission / reception unit 28 and a control unit 29 are included.

入力手段21は、撮像手段24により撮影されたユーザの顔を含む人物画像若しくは送受信手段28により外部装置から得られたユーザの顔を含む人物画像を入力する。また、入力手段21は、送信側ユーザの顔を含む動画像を撮影する撮影指示、仮想メイク画像生成指示、メイク情報取得指示、画像生成指示、送受信指示等の各種指示の入力を受け付ける。なお、入力手段21は、例えばキーボードや、マウス等のポインティングデバイス等からなる。   The input unit 21 inputs a person image including the user's face taken by the imaging unit 24 or a person image including the user's face obtained from the external device by the transmission / reception unit 28. The input unit 21 receives input of various instructions such as a shooting instruction for shooting a moving image including the face of the transmitting user, a virtual makeup image generation instruction, a makeup information acquisition instruction, an image generation instruction, and a transmission / reception instruction. Note that the input unit 21 includes, for example, a keyboard and a pointing device such as a mouse.

出力手段22は、入力手段21により入力された内容や、入力内容に基づいて実行されたメイク情報の内容等の表示・出力等を行う。なお、出力手段22は、ディスプレイやスピーカ等からなる。更に、出力手段22は、プリンタ等の機能を有していてもよく、その場合には画面生成手段27により生成される画面の内容等を、紙等の印刷媒体に印刷してユーザ等に提示することもできる。   The output means 22 displays / outputs the contents input by the input means 21 and the contents of the makeup information executed based on the input contents. Note that the output means 22 includes a display, a speaker, and the like. Further, the output unit 22 may have a function such as a printer. In that case, the screen content generated by the screen generation unit 27 is printed on a print medium such as paper and presented to the user. You can also

蓄積手段23は、撮影されたオリジナルの動画情報や仮想メイク画像の生成により得られるメイク情報、仮想メイク画像、画面生成手段27により得られるコントラスト調整等の各種画像情報、送信先情報(氏名、電話番号等)等の各種データを蓄積する。   The storage means 23 is a variety of image information such as contrast information obtained by the screen information generating means 27, virtual makeup image, makeup information obtained by generating the original moving image information and virtual makeup image, and destination information (name, telephone). Various data such as numbers are stored.

また、蓄積手段23は、送受信手段28により取得される上述した各種情報等も蓄積することができる。更に、蓄積手段23は、必要に応じて蓄積されている各種データを読み出すことができる。   In addition, the storage unit 23 can also store the above-described various information acquired by the transmission / reception unit 28. Furthermore, the storage means 23 can read out various data stored as required.

撮像手段24は、CCD(Charge Coupled Device)カメラ等からなり、テレビ電話等に用いられるユーザの動画像を撮影することができる。なお、撮像手段24は、例えば送信装置11−1のような場合には内蔵型カメラであり、送信装置11−2のような場合には、上述した撮像装置15−1が接続される。   The imaging means 24 is composed of a CCD (Charge Coupled Device) camera or the like, and can capture a user's moving image used for a videophone or the like. Note that the imaging unit 24 is a built-in camera in the case of the transmission device 11-1, for example, and the imaging device 15-1 described above is connected in the case of the transmission device 11-2.

仮想メイク画像生成手段25は、撮像手段24により撮影された画像に対してユーザによって選択された化粧メイクアップ方法に基づいて仮想メイクアップシミュレーションを行い、画像上に仮想メイク画像を表示する。   The virtual makeup image generation means 25 performs a virtual makeup simulation on the image photographed by the imaging means 24 based on a makeup makeup method selected by the user, and displays a virtual makeup image on the image.

ここで、仮想メイク画像生成手段25は、上述したように、ユーザの顔の眉毛、目元、口元、頬の顔の全部又は一部(局部も含む)、或いは髪、洋服等をユーザにより設定された内容又は予め設定させた内容に基づいて仮想メイクアップシミュレーションを行い、仮想メイク画像を生成する。なお、本実施形態では、仮想メイク画像生成手段25によるメイクとして、例えばユーザの顔画像にファンデーション,眉,シャドウ,口紅,チーク等から成るメイクアップを施した、メイクアップ後の画像を取得する。   Here, as described above, the virtual makeup image generation means 25 is set by the user such as the eyebrows, the eyes, the mouth, the cheek's face or all (including the local area) of the user's face, the hair, the clothes, and the like. The virtual makeup simulation is performed based on the stored contents or the contents set in advance to generate a virtual makeup image. In the present embodiment, as the makeup by the virtual makeup image generation means 25, for example, an image after makeup obtained by applying makeup such as foundation, eyebrows, shadow, lipstick, teak to the face image of the user is acquired.

ここで、仮想メイク画像生成手段25は、具体的には、仮想メイク画像生成手段25は、撮影した顔画像の1フレーム(1コマ)から顔のパーツの輪郭情報(ベクターデータ)を抽出し、その抽出した1フレーム分の塗布エリア(ベクターデータ)を、例えば上述した特許文献1(特開2007−216000号公報)に示されているメイクアップ手法に基づきグラデーション、透明度等をコントロールし、ペイントする。このペイントの結果、1フレーム分のメイクが施された顔の合成画像が生成される。   Here, the virtual makeup image generation means 25 specifically extracts the facial part contour information (vector data) from one frame (one frame) of the photographed face image, The extracted application area (vector data) for one frame is painted by controlling gradation, transparency, and the like based on the makeup method disclosed in, for example, Patent Document 1 (Japanese Patent Laid-Open No. 2007-216000) described above. . As a result of this painting, a composite image of the face with makeup for one frame is generated.

また、仮想メイク画像生成手段25は、上述した手法を各フレーム(毎秒15〜30或いはそれ以上)繰り返すことで、メイクアップ動画像を生成する。したがって、このフレーム毎のデータを受信側に送信することで、受信側では連続した動画として表示される。   Further, the virtual makeup image generation means 25 generates a makeup moving image by repeating the above-described method for each frame (15 to 30 or more per second). Therefore, by transmitting the data for each frame to the receiving side, it is displayed as a continuous moving image on the receiving side.

メイク情報取得手段26は、仮想メイク画像生成手段25により生成された仮想メイクアップシミュレーションに関する情報(どの部分(領域)にどのような色のメイクを施したかを示す情報)等をメイク情報として取得する。具体的には、メイク情報取得手段26は、仮想メイク画像生成手段25により得られた仮想メイク画像の生成において得られる上述したベクターデータ、及び、ベクターデータと顔画像とを対応付けるためのベクター座標値と、メイクテクニック等を表した数値情報等のパラメータ情報等からなるメイク情報を取得する。   The makeup information acquisition unit 26 acquires, as makeup information, information related to the virtual makeup simulation generated by the virtual makeup image generation unit 25 (information indicating which part (region) is applied with which color). . More specifically, the makeup information acquisition unit 26 obtains the vector data obtained in the generation of the virtual makeup image obtained by the virtual makeup image generation unit 25, and the vector coordinate value for associating the vector data with the face image. And makeup information consisting of parameter information such as numerical information representing the makeup technique and the like.

また、メイク情報取得手段26は、オリジナルの動画情報(原画像フレーム)、及びメイク情報に対して同期を取るための識別情報を付加する。なお、識別情報には、例えば上述した時間情報や画像フレームの識別情報(フレーム番号)等が付加される。このように、メイク情報取得手段26により取得されるメイク情報に基づいて、そのデータ量やデータ内容に基づく課金処理を行うことができる。   The makeup information acquisition means 26 adds original moving image information (original image frame) and identification information for synchronizing the makeup information. For example, the above-described time information and image frame identification information (frame number) are added to the identification information. Thus, based on the makeup information acquired by the makeup information acquisition means 26, a charging process based on the data amount and data content can be performed.

本実施形態では、メイク情報取得手段26により得られるテキスト情報のみからなるメイク情報のみを取得して伝送することになるため、データ量を削減することができ伝送効率を向上させると共に、伝送中のデータの内容を第三者に見られても具体的な内容を把握することができないため、秘匿性を向上させることができる。   In the present embodiment, since only makeup information consisting only of text information obtained by the makeup information acquisition means 26 is acquired and transmitted, the amount of data can be reduced, transmission efficiency can be improved, and transmission in progress can be performed. Even if the contents of the data can be seen by a third party, the specific contents cannot be grasped, so that confidentiality can be improved.

画面生成手段27は、本実施形態における送信装置11の各機能構成で実行するために必要なデータの入力や、実行結果の出力、エラー時の通知等の各種画面を生成し、生成した画面をディスプレイ等の出力手段22に出力する。具体的には、画面生成手段27は、仮想メイク画像生成手段25により得られる仮想メイク画像や原画像フレーム、メイク情報等のうち、少なくとも1つを出力手段22に表示するための画面を生成する。   The screen generation unit 27 generates various screens such as data input necessary for execution by each functional configuration of the transmission device 11 in the present embodiment, output of execution results, and notification at the time of error, and the generated screens are generated. Output to output means 22 such as a display. Specifically, the screen generation unit 27 generates a screen for displaying at least one of the virtual makeup image, the original image frame, the makeup information, and the like obtained by the virtual makeup image generation unit 25 on the output unit 22. .

送受信手段28は、通信ネットワーク14等により接続された外部装置等から本実施形態における必要な各種データを入力したり、送信装置11により実行された各種実行結果を外部装置に出力することができる。また、送受信手段28は、予め設定された条件に基づいて原画像のフレームと、メイク情報とをテレビ電話の相手の受信装置13又は動画管理サーバ12に出力する。   The transmission / reception means 28 can input various necessary data in the present embodiment from an external device connected by the communication network 14 or the like, and can output various execution results executed by the transmission device 11 to the external device. Further, the transmission / reception means 28 outputs the frame of the original image and the makeup information to the receiving device 13 or the moving image management server 12 of the other party of the videophone based on a preset condition.

制御手段29は、送信装置11の各構成部全体の制御を行う。具体的には、制御手段29は、例えば本実施形態におけるテレビ電話を実現するために、仮想メイクアップシミュレーション処理を行うための実行プログラムをインストールし、そのインストールされたソフトウェアを実行することにより、例えばユーザ等による入力手段21からの各種指示情報等に基づいて、化粧メイク画像生成処理、メイク情報取得処理、画面生成処理、送受信処理等の各制御を行う。   The control unit 29 controls the entire components of the transmission device 11. Specifically, the control unit 29 installs an execution program for performing a virtual makeup simulation process, for example, to realize the videophone in the present embodiment, and executes the installed software, for example, Based on various instruction information from the input means 21 by the user, etc., each control such as a makeup image generation process, a makeup information acquisition process, a screen generation process, and a transmission / reception process is performed.

<動画管理サーバ12:機能構成例>
次に、本実施形態における動画管理サーバ12の機能構成例について、図を用いて説明する。図3は、第1の実施形態における動画管理サーバの機能構成の一例を示す図である。図3に示す動画管理サーバ12は、入力手段31と、出力手段32と、蓄積手段33と、端末管理手段34と、送信設定手段35と、仮想メイク情報量取得手段36と、課金手段37と、仮想メイク画像生成手段38と、送受信手段39と、制御手段40とを有するよう構成されている。
<Movie Management Server 12: Functional Configuration Example>
Next, a functional configuration example of the moving image management server 12 in the present embodiment will be described with reference to the drawings. FIG. 3 is a diagram illustrating an example of a functional configuration of the moving image management server according to the first embodiment. The moving image management server 12 shown in FIG. 3 includes an input unit 31, an output unit 32, a storage unit 33, a terminal management unit 34, a transmission setting unit 35, a virtual makeup information amount acquisition unit 36, and a charging unit 37. The virtual makeup image generation means 38, the transmission / reception means 39, and the control means 40 are included.

入力手段31は、サーバ管理者等のユーザからの端末管理指示、送信設定指示、仮想メイク情報量取得指示、課金指示、仮想メイク画像生成指示、送受信指示等の各種指示の入力を受け付ける。なお、入力手段21は、例えばキーボードや、マウス等のポインティングデバイス等からなる。   The input unit 31 receives input of various instructions such as a terminal management instruction, a transmission setting instruction, a virtual makeup information amount acquisition instruction, a charging instruction, a virtual makeup image generation instruction, and a transmission / reception instruction from a user such as a server administrator. Note that the input unit 21 includes, for example, a keyboard and a pointing device such as a mouse.

出力手段32は、入力手段31により入力された内容や、入力内容に基づいて実行されたメイク情報の内容等の表示・出力等を行う。なお、出力手段32は、ディスプレイやスピーカ等からなる。更に、出力手段32は、プリンタ等の機能を有していてもよく、その場合には仮想メイク画像生成手段38により生成される画面の内容等を、紙等の印刷媒体に印刷してユーザ等に提示することもできる。   The output means 32 displays / outputs the contents input by the input means 31 and the contents of makeup information executed based on the input contents. Note that the output unit 32 includes a display, a speaker, and the like. Further, the output unit 32 may have a function of a printer or the like. In that case, the contents of the screen generated by the virtual makeup image generation unit 38 are printed on a print medium such as paper, etc. Can also be presented.

蓄積手段33は、端末管理情報、送信設定情報、仮想メイク情報量、課金内容、合成された画像内容、仮想メイクに関する画像等の各種データを蓄積する。   The storage means 33 stores various data such as terminal management information, transmission setting information, virtual makeup information amount, charging contents, synthesized image contents, and images related to virtual makeup.

また、蓄積手段33は、送受信手段39により取得される上述した各種情報等も蓄積する。更に、蓄積手段33は、必要に応じて蓄積されている各種データを読み出すことができる。   The storage unit 33 also stores the above-described various information acquired by the transmission / reception unit 39. Further, the storage means 33 can read out various data stored as required.

端末管理手段34は、テレビ電話を開始している送信装置11及び受信装置13のそれぞれの通信内容を管理する。つまり、端末管理手段34は、送信側からの原画像に仮想メイクアップシミュレーションツールを利用して送信しているか否か、どのレベルまでのアプリケーションの使用が可能であるか否かをユーザ情報及び課金情報に基づいて判断する。例えば、予め設定されたユーザに対する使用可能レベルを判断し、レベルがAであれば、背景も含めた合成画像を許可したり、レベルがBであれば、背景の合成はできなくておも顔全体の化粧のみシミュレーションすることができる等、そのレベルに対応させて動画の処理内容を変更することができる。   The terminal management unit 34 manages the communication contents of the transmission device 11 and the reception device 13 that have started the videophone. In other words, the terminal management unit 34 determines whether the original image from the transmission side is transmitted using the virtual makeup simulation tool, and to what level the application can be used. Judgment based on information. For example, if the level that can be used for a preset user is determined and the level is A, a composite image including the background is permitted, and if the level is B, the background cannot be combined and the face cannot be combined. Only the entire makeup can be simulated, and the processing content of the moving image can be changed according to the level.

また、端末管理手段34は、送信装置13のユーザ情報を抽出し、抽出したユーザ情報に基づいて、通話中の送信装置13に対してメイク情報が送信可能な否かを判断し、例えば原画像フレームとメイク情報とから仮想メイク画像を生成するプログラムがインストール済みで、送信可能な場合にメイク情報を送信させ、例えば、上記プログラムの未インストールの場合や、送信装置12側で指示された内容、受信する受信装置13の性能等に基づいて、受信側で原画像フレームとメイク情報とから仮想メイク画像を生成することができない場合には、原画像フレームにメイク情報を反映させた仮想メイク画像を生成し、生成された仮想メイク画像を送信させる。   In addition, the terminal management unit 34 extracts user information of the transmission device 13 and determines whether makeup information can be transmitted to the transmission device 13 during a call based on the extracted user information. When a program for generating a virtual makeup image from the frame and makeup information has been installed and can be transmitted, the makeup information is transmitted. For example, when the program is not installed, the content instructed on the transmission device 12 side, When a virtual makeup image cannot be generated from the original image frame and makeup information on the receiving side based on the performance of the receiving device 13 that receives the virtual makeup image, the virtual makeup image reflecting the makeup information in the original image frame is displayed. And generating the generated virtual makeup image.

また、送信設定手段35は、送信装置11から得られる送信側ユーザのオリジナルの動画情報(原画像フレーム)に対して、受信側に送るときの画像内容を設定する。つまり、送信設定手段35は、端末管理手段34により得られる各受信装置13に対する設定情報(例えば、画素サイズや大きさを受信先のディスプレイや、伝送効率、通信条件、受信装置13の処理性能等)に基づいて画像調整を行う。   Further, the transmission setting means 35 sets the image content when sending to the receiving side with respect to the original moving image information (original image frame) of the transmitting side user obtained from the transmitting device 11. In other words, the transmission setting unit 35 sets the setting information for each receiving device 13 obtained by the terminal management unit 34 (for example, the display of the pixel size and size, the transmission efficiency, the communication conditions, the processing performance of the receiving device 13, etc. ) To make image adjustments.

また、送信設定手段35は、例えばストリーミング等により顔画像を同時に複数の受信者に送付する場合に、動画管理サーバ12から送信されるベクターデータ及びパラメータ情報のメイク情報を予め蓄積されたユーザ情報や受信装置毎の送信設定内容等に基づいて、それぞれの受信装置に対応させて変化させることで、受信装置毎に異なる表現をさせることができる。   Further, the transmission setting means 35, for example, when sending face images to a plurality of recipients simultaneously by streaming or the like, vector data transmitted from the moving image management server 12 and parameter information make-up information stored in advance as user information or Based on the transmission setting contents for each receiving device and the like, it can be changed corresponding to each receiving device, whereby different expressions can be given to each receiving device.

仮想メイク情報量取得手段36は、送信装置11から送信されたメイク情報を取得し、その仮想メイクアップシミュレーション部分に対応するデータ量(情報量)及び/又はそのデータの内容を取得する。例えば、化粧識別情報が、顔に対するメイクアップあり、その内容が口紅であった場合に、予め蓄積手段33に蓄積されている化粧識別情報に対応する、基本となるデータ量を取得する。   The virtual makeup information amount acquisition unit 36 acquires makeup information transmitted from the transmission device 11, and acquires a data amount (information amount) corresponding to the virtual makeup simulation portion and / or contents of the data. For example, when the makeup identification information is makeup for the face and the content is lipstick, the basic data amount corresponding to the makeup identification information stored in the storage means 33 in advance is acquired.

また、仮想メイク情報量取得手段36は、1フレーム中に複数の化粧範囲がある場合(例えば、唇とアイシャドウ等)には、それぞれから得られるデータ量を加算して全体のデータ量を算出する。また、仮想メイク情報量取得手段36は、化粧範囲の数や仮想メイクする種類等のデータ内容を取得する。これにより、データ量やデータ内容に応じて容易且つ正確に課金を行うことができる。   In addition, when there are a plurality of makeup ranges in one frame (for example, lips and eye shadows), the virtual makeup information amount acquisition unit 36 adds the data amounts obtained from each to calculate the total data amount. To do. The virtual makeup information amount acquisition means 36 acquires data contents such as the number of makeup ranges and the types of virtual makeup. Thereby, it is possible to easily and accurately charge according to the data amount and the data content.

また、送信設定手段35は、送信装置11のユーザの使用可能期限が切れていないか否かを判断し、期限が切れている場合には、本実施形態における仮想メイクが使用できないようにしたり、再契約させるための通知を生成し、送信装置11に送信することができる。   Further, the transmission setting unit 35 determines whether or not the usable time limit of the user of the transmission device 11 has expired, and if the time limit has expired, the virtual make-up in the present embodiment cannot be used, A notification for re-contracting can be generated and transmitted to the transmission device 11.

なお、仮想メイク情報量取得手段36は、各フレームについて、上述したデータ量の算出処理を行うことなく、例えば、本実施形態における動画伝送システムの実行時、化粧箇所やメイクカラーの変更時、予め設定された時間間隔毎、又は動画管理サーバ12の管理者(ユーザ)等からの指示等により、上述した仮想メイク情報量の取得を行う。   The virtual makeup information amount acquisition unit 36 does not perform the data amount calculation process described above for each frame, for example, when the moving image transmission system in the present embodiment is executed, when the makeup location or makeup color is changed, in advance. The virtual makeup information amount described above is acquired at each set time interval or according to an instruction from an administrator (user) of the video management server 12 or the like.

課金手段37は、仮想メイク情報量取得手段36により得られる仮想メイク情報量に基づいて、その送信装置11に対する課金処理を行う。なお、課金手段37は、課金のタイミングを仮想メイク情報量取得手段36により得られる仮想メイク情報量の取得時や、管理者等からの指示等により課金を行う。また、課金は、定量性の料金設定にしてもよく、従量性の料金設定にしてもよく、利用回数や利用量に応じて所定の割引をおこなってもよい。   The charging unit 37 performs a charging process for the transmission device 11 based on the virtual makeup information amount obtained by the virtual makeup information amount acquisition unit 36. The billing unit 37 charges the billing timing when the virtual makeup information amount obtained by the virtual makeup information amount obtaining unit 36 is acquired, or by an instruction from an administrator or the like. In addition, the charging may be a quantitative charge setting, a pay-per-use charge setting, or a predetermined discount according to the number of uses or the use amount.

なお、本実施形態では、上述したように送信装置11から通信ネットワーク14を介して動画管理サーバ12が取得する仮想メイク情報量により課金を行っているが、本発明においての課金方法はこれに限定されるものではなく。例えば、実際の化粧品を使用したと同様な課金の仕組みを構築することもできる。   In the present embodiment, as described above, charging is performed based on the virtual makeup information amount acquired by the moving image management server 12 from the transmission device 11 via the communication network 14, but the charging method in the present invention is limited to this. Not what will be done. For example, a billing mechanism similar to that used for actual cosmetics can be constructed.

上述した内容を具体的に説明すると、例えばユーザが送信装置11を用いて仮想的に化粧を施した仮想メイク画像を生成する場合、予め仮想的なボトルやコンパクトケース等の容器に入れられたファンデーションや口紅、マスカラ等の各化粧品を画面に表示しておき、上述した仮想メイクを行った際に使用された所定量分の各化粧品がそれぞれの容器から消費される。また、容器内の化粧料が空になると同じ化粧品を購入したり、必要に応じて新たな化粧品を購入する。そこで本発明では、この購入時に課金を行うようにすることもできる。   The above-described content will be described in detail. For example, when a user creates a virtual makeup image with virtual makeup using the transmission device 11, a foundation previously placed in a container such as a virtual bottle or a compact case. Each cosmetic such as lipstick, mascara, etc. is displayed on the screen, and a predetermined amount of each cosmetic used when performing the virtual makeup described above is consumed from each container. Also, when the cosmetic in the container is empty, the same cosmetic is purchased, or new cosmetic is purchased as necessary. Therefore, in the present invention, it is possible to charge at the time of purchase.

なお、上述の課金処理を実現するために、容器内の化粧料のデータは、予め設定されるユーザ毎の個人データベース等に保管されており、使用の都度化粧品の量が容器から減っていき、また逆に、購入すればその分の量が増加するように管理する。なお、これらの管理情報は、送信装置11及び動画管理サーバ12の両方が管理しておいてもよく、何れか一方が管理しておいてもよい。   In order to realize the above billing process, cosmetic data in the container is stored in a personal database for each user set in advance, and the amount of cosmetics decreases from the container each time it is used. On the other hand, if the purchase is made, the amount is managed to increase. The management information may be managed by both the transmission device 11 and the moving image management server 12 or may be managed by either one.

更に、上述した仮想メイク時の化粧の使用量について、例えば送信装置11に設けられたタッチパネル等を利用する場合には、ユーザが選択した化粧品に対して、ユーザの指で掬い取るような操作をタッチパネルで行うことにより、タッチパネルから検出した指でなぞられたエリアを、化粧品を使用したエリアと判断して、面積に対応した使用量を取得することができる。   Furthermore, with respect to the amount of makeup used in the above-described virtual makeup, for example, when using a touch panel or the like provided in the transmission device 11, an operation of scrubbing with the user's finger is performed on the cosmetic selected by the user. By performing with the touch panel, the area traced with the finger detected from the touch panel can be determined as an area where cosmetics are used, and the usage amount corresponding to the area can be acquired.

更に、送信装置11に圧力センシング等のように指の力を検出する機能を有している場合には、その力の情報(指圧)と、化粧品毎に予め設定された柔らかさや硬さ等の成分情報等に基づいて、上述した面積の情報と合わせて体積としての使用量を算出することができる。この場合、例えば、「使用量=面積×Z(指圧による深さ)×係数(化粧品の硬度等)」のように計算することで、体積が算出される。このように、使用量を算出された体積から数値化することができるため、その分の化粧の量を容器から減らす表示を行うことで、仮想空間上で実際の化粧料の使用と同様の化粧の消費と課金処理とを実現することができる。なお、上述した指の動作は、指に限定されず、例えば筆等の専用の化粧器具であってもよい。   Further, when the transmitting device 11 has a function of detecting finger force such as pressure sensing, information on the force (finger pressure) and softness and hardness preset for each cosmetic product are provided. Based on the component information or the like, the usage amount as a volume can be calculated together with the area information described above. In this case, for example, the volume is calculated by calculating “use amount = area × Z (depth by finger pressure) × coefficient (hardness of cosmetics, etc.)”. In this way, since the amount of use can be quantified from the calculated volume, the same amount of makeup as in the actual use of cosmetics in the virtual space can be displayed by displaying the amount of makeup for that amount from the container. Consumption and billing processing can be realized. In addition, the operation | movement of the finger | toe mentioned above is not limited to a finger | toe, For example, exclusive cosmetics, such as a brush, may be sufficient.

上述の処理等により、ユーザが指定した化粧品の容器から取得した所定量分の化粧料は、その取得した量に対応して仮想メイク画像に反映される。   A predetermined amount of cosmetics acquired from the cosmetic container designated by the user by the above-described processing or the like is reflected in the virtual makeup image corresponding to the acquired amount.

仮想メイク画像生成手段38は、送信設定手段35により得られる送信内容が「仮想メイク画像」である場合には、送信装置11から得られる原画像フレーム及びメイク情報を、受信したストリーム信号等に付加されているフレーム識別信号やタイムスタンプ等の時間情報等に基づいて合成して仮想メイク画像を生成する。   When the transmission content obtained by the transmission setting unit 35 is “virtual makeup image”, the virtual makeup image generation unit 38 adds the original image frame and makeup information obtained from the transmission device 11 to the received stream signal or the like. A virtual makeup image is generated by synthesizing based on time information such as a frame identification signal and a time stamp.

なお、仮想メイク画像生成手段38は、メイク情報に基づいて、原画像フレームに仮想メイクアップシミュレーションを施す場合には、例えば上述したような送信装置11における手法と同様の手法で仮想メイク画像を生成することができる。また、この場合、仮想メイク画像生成手段38は、予め蓄積手段33に蓄積されたユーザ情報や端末管理手段34、送信設定手段35により得られる各種設定情報等に基づいて、受信装置毎(ユーザ毎)に異なる仮想メイク画像を生成することができる。   Note that the virtual makeup image generation means 38 generates a virtual makeup image by a method similar to the method in the transmission device 11 described above, for example, when performing a virtual makeup simulation on the original image frame based on the makeup information. can do. Further, in this case, the virtual makeup image generating means 38 is based on user information stored in the storage means 33 in advance, various setting information obtained by the terminal management means 34 and the transmission setting means 35, etc. ) Different virtual makeup images can be generated.

更に、仮想メイク画像生成手段38は、上述したように、ユーザが指定した化粧品の容器から取得した所定量分の化粧料を用いて、その取得した量に対応させた仮想メイク画像を生成することができる。つまり、本実施形態では、算出された使用量を課金に使用するだけでなく、仮想メイクアップシミュレーションを施す場合の物理量(パラメータ)として使用することができる。したがって、仮想メイク画像生成手段38は、取得した物理量を、予め設定される仮想メイクにおける化粧の色の濃さや厚さ等に対応させて仮想メイク画像を生成することができる。なお、この場合には、上述した使用量の算出で用いられる係数に、化粧品の硬度ではなく、化粧品の透明度等を設定してもよい。   Furthermore, as described above, the virtual makeup image generation unit 38 generates a virtual makeup image corresponding to the acquired amount using the predetermined amount of cosmetic acquired from the cosmetic container designated by the user. Can do. That is, in the present embodiment, the calculated usage amount can be used not only for billing but also as a physical amount (parameter) when performing virtual makeup simulation. Therefore, the virtual makeup image generation means 38 can generate a virtual makeup image by making the acquired physical quantity correspond to the darkness and thickness of the makeup color in the preset virtual makeup. In this case, instead of the cosmetic hardness, the cosmetic transparency or the like may be set as the coefficient used in the above-described usage amount calculation.

更に、送信装置11の表示画面に圧力センシング等のように指の力を検出する機能を有している場合には、例えばユーザの指等で画面に表示された自分又は他人の顔画像をなぞることで、仮想メイク画像生成手段38は、そのなぞられたエリアにユーザの指圧と上述した物理量とに対応した化粧が塗布された仮想メイク画像を生成する。   Further, when the display screen of the transmission device 11 has a function of detecting finger force such as pressure sensing, for example, the user's finger or the like is used to trace the face image of himself or another person displayed on the screen. Thus, the virtual makeup image generation means 38 generates a virtual makeup image in which makeup corresponding to the finger pressure of the user and the physical quantity described above is applied to the traced area.

送受信手段39は、通信ネットワーク14等により接続された外部装置等から本実施形態における必要な各種データを入力したり、送信装置11により実行された各種実行結果を外部装置に出力することができる。また、送受信手段28は、予め設定された条件に基づいて原画像フレーム及びメイク情報、或いは仮想メイク画像生成手段38にて生成された仮想メイク画像のフレーム等をストリーム信号としてテレビ電話の相手の受信装置13に出力する。   The transmission / reception means 39 can input various necessary data in the present embodiment from an external device connected by the communication network 14 or the like, and can output various execution results executed by the transmission device 11 to the external device. Further, the transmission / reception means 28 receives the original image frame and the makeup information or the virtual makeup image frame generated by the virtual makeup image generation means 38 based on a preset condition as a stream signal from the other party of the videophone. Output to the device 13.

制御手段40は、動画管理サーバ12の各構成部全体の制御を行う。具体的には、制御手段40は、例えば本実施形態におけるテレビ電話を実現するために、仮想メイクアップ処理を行うための実行プログラムをインストールし、そのインストールされたソフトウェアを実行することにより、例えばユーザ等による入力手段31からの各種指示情報等に基づいて、端末管理処理、送信設定処理、仮想メイク情報量取得処理、課金処理、仮想メイク画像生成処理、送受信処理等の各制御を行う。   The control means 40 controls the entire components of the moving image management server 12. Specifically, the control means 40 installs an execution program for performing virtual makeup processing, for example, in order to realize a videophone in the present embodiment, and executes the installed software, for example, a user Based on various instruction information from the input means 31 and the like, each control such as terminal management processing, transmission setting processing, virtual makeup information amount acquisition processing, charging processing, virtual makeup image generation processing, transmission / reception processing, and the like is performed.

<受信装置13:機能構成例>
次に、本実施形態における受信装置13の機能構成例について、図を用いて説明する。図4は、第1の実施形態における受信装置の機能構成の一例を示す図である。図4に示す受信装置13は、入力手段51と、出力手段52と、蓄積手段53と、原画像取得手段54と、メイク情報取得手段55と、仮想メイク画像生成手段56と、送受信手段57と、制御手段58とを有するよう構成されている。
<Receiving device 13: functional configuration example>
Next, a functional configuration example of the receiving device 13 in the present embodiment will be described with reference to the drawings. FIG. 4 is a diagram illustrating an example of a functional configuration of the receiving device according to the first embodiment. 4 includes an input unit 51, an output unit 52, a storage unit 53, an original image acquisition unit 54, a makeup information acquisition unit 55, a virtual makeup image generation unit 56, and a transmission / reception unit 57. , And control means 58.

入力手段51は、受信側ユーザ等からの原画像取得指示、仮想メイク情報取得指示、仮想メイク画像生成指示、送受信指示等の各種指示の入力を受け付ける。なお、入力手段51は、例えばキーボードや、マウス等のポインティングデバイス等からなる。   The input means 51 accepts input of various instructions such as an original image acquisition instruction, a virtual makeup information acquisition instruction, a virtual makeup image generation instruction, and a transmission / reception instruction from a receiving user or the like. Note that the input unit 51 includes, for example, a keyboard or a pointing device such as a mouse.

出力手段52は、入力手段51により入力された内容や、入力内容に基づいて実行された画像合成された化粧メイク画像の内容等の表示・出力等を行う。なお、出力手段52は、ディスプレイやスピーカ等からなる。更に、出力手段52は、プリンタ等の機能を有していてもよく、その場合には仮想メイク画像生成手段56により生成される画面の内容等を、紙等の印刷媒体に印刷してユーザ等に提示することもできる。   The output means 52 displays / outputs the contents input by the input means 51 and the contents of the makeup / makeup image synthesized based on the input contents. Note that the output means 52 includes a display, a speaker, and the like. Furthermore, the output unit 52 may have a function of a printer or the like. In that case, the contents of the screen generated by the virtual makeup image generation unit 56 are printed on a print medium such as paper and the user or the like. Can also be presented.

蓄積手段53は、原画像フレーム、メイク情報、仮想メイク画像、通話履歴、送信装置11や動画管理サーバ12と画像や音声データの送受信を行うためのアドレス情報等の各種データを蓄積する。また、蓄積手段53は、送受信手段57により取得される上述した各種情報等も蓄積する。更に、蓄積手段53は、必要に応じて蓄積されている各種データを読み出すことができる。また、蓄積手段53は、各ユーザ毎に個別データを有しており、メイク情報に基づいて原画像フレームに仮想メイクを反映させる際、例えばメイク情報に含まれる数値情報に対して個別データに含まれる数値等を用いて演算して、各装置毎に個別にメイク結果を表示させることができる。   The storage unit 53 stores various data such as original image frames, makeup information, virtual makeup images, call history, address information for transmitting / receiving images and audio data to / from the transmission device 11 and the moving image management server 12. The storage unit 53 also stores the above-described various information acquired by the transmission / reception unit 57. Further, the storage means 53 can read out various data stored as required. Further, the storage means 53 has individual data for each user. When the virtual makeup is reflected in the original image frame based on the makeup information, for example, the numerical data included in the makeup information is included in the individual data. The makeup result can be displayed individually for each device by calculating using the numerical value or the like.

原画像取得手段54は、通信ネットワーク14を介して受信装置11又は動画管理サーバ12から受信したストリーム信号から、送信側にて撮影されたオリジナルの動画情報である原画像データを取得する。このとき、取得される原画像データは、動画ストリームとして連続的に取得されるため、取得したストリーム信号に含まれる原画像フレームを連続して表示させることで、動画が形成される。なお、本実施形態では、動画ではなく静止画を表示させてもよい。   The original image acquisition unit 54 acquires original image data that is original moving image information photographed on the transmission side from a stream signal received from the receiving device 11 or the moving image management server 12 via the communication network 14. At this time, since the acquired original image data is continuously acquired as a moving image stream, a moving image is formed by continuously displaying the original image frames included in the acquired stream signal. In the present embodiment, a still image may be displayed instead of a moving image.

メイク情報取得手段55は、予め設定された送信装置11又は動画管理サーバ12から送信されたメイク情報等を取得する。   The makeup information acquisition means 55 acquires makeup information and the like transmitted from the preset transmission device 11 or the moving image management server 12.

仮想メイク画像生成手段56は、原画像取得手段54から得られる原画像と、メイク情報取得手段55から得られるメイク情報とに基づいて仮想メイク画像の生成を行う。具体的には、仮想メイク画像生成手段56は、メイク情報が取得できている場合は、送信された原画像フレーム(ラスターデータ)に対して時間情報やフレーム識別情報等の識別情報に基づいてフレーム同期処理を行い、ベクターデータや数値情報等のメイク情報を反映させて、仮想メイク画像を生成して出力手段52により出力する。   The virtual makeup image generation unit 56 generates a virtual makeup image based on the original image obtained from the original image acquisition unit 54 and the makeup information obtained from the makeup information acquisition unit 55. Specifically, when makeup information can be acquired, the virtual makeup image generation means 56 generates a frame based on identification information such as time information and frame identification information for the transmitted original image frame (raster data). A synchronization process is performed, and makeup information such as vector data and numerical information is reflected to generate a virtual makeup image and output it by the output means 52.

なお、仮想メイク画像生成手段56は、メイク情報に含まれる数値情報を用いて所定の演算を行うことにより、又は蓄積手段53に予め蓄積された数値情報等の個別データを用いて演算することにより、個別メイクの内容を変化させて各受信装置独自の仮想メイク画像を生成することもできる。   Note that the virtual makeup image generation means 56 performs a predetermined calculation using numerical information included in the makeup information, or calculates using individual data such as numerical information stored in the storage means 53 in advance. It is also possible to generate a virtual makeup image unique to each receiving device by changing the contents of the individual makeup.

なお、仮想メイク画像生成手段56は、例えばメイクテクニック等の数値以外のメイク情報を取得した場合には、そのメイク情報に対応するデータを蓄積手段53或いは動画管理サーバ12の蓄積手段33にある仮想メイク情報DBから抽出し、抽出されたデータに含まれる化粧方法、化粧品情報等に基づいて、原画像フレームに対して仮想メイク画像を生成して出力手段52により出力する。   When the virtual makeup image generation means 56 acquires makeup information other than numerical values such as makeup technique, for example, the virtual makeup image generation means 56 stores data corresponding to the makeup information in the storage means 53 or the storage means 33 of the moving image management server 12. A virtual makeup image is generated for the original image frame based on the makeup method, cosmetic information and the like extracted from the makeup information DB and included in the extracted data, and output by the output means 52.

ここで、動画管理サーバ12にて既に仮想メイク画像が生成されており、その情報を受信装置13が受信した場合には、上述した原画像取得手段54、メイク情報取得手段55、及び仮想メイク画像生成手段56における動作を行わず、動画管理サーバ12から得られる仮想メイク画像を出力手段52により出力する。これにより、受信装置13の処理負担を軽減することができる。   Here, when a virtual makeup image has already been generated in the moving image management server 12 and the information is received by the receiving device 13, the above-described original image acquisition unit 54, makeup information acquisition unit 55, and virtual makeup image The virtual makeup image obtained from the moving image management server 12 is output by the output unit 52 without performing the operation in the generation unit 56. Thereby, the processing burden of the receiving device 13 can be reduced.

送受信手段57は、通信ネットワーク14等により接続された外部装置等から本実施形態における必要な各種データを入力したり、受信装置13により実行された各種実行結果を外部装置に出力することができる。   The transmission / reception means 57 can input various necessary data in the present embodiment from an external device connected by the communication network 14 or the like, and can output various execution results executed by the reception device 13 to the external device.

制御手段58は、受信装置13の各構成部全体の制御を行う。具体的には、制御手段58は、例えば本実施形態におけるテレビ電話を実現するために、仮想メイクアップ処理を行うための実行プログラムをインストールし、そのインストールされたソフトウェアを実行することにより、例えばユーザ等による入力手段51からの各種指示情報等に基づいて、原画像取得処理、仮想メイク情報取得処理、仮想メイク画像生成処理、送受信処理等の各制御を行う。   The control unit 58 controls the entire components of the receiving device 13. Specifically, the control unit 58 installs an execution program for performing a virtual makeup process, for example, in order to realize a videophone in the present embodiment, and executes the installed software, for example, a user Based on various instruction information from the input means 51, etc., each control such as an original image acquisition process, a virtual makeup information acquisition process, a virtual makeup image generation process, and a transmission / reception process is performed.

上述した本実施形態における送信装置11、動画管理サーバ12、及び受信装置13により、必要となる情報がラスターデータ(画像のピクセルの集合体)とベクターデータ(領域を表した閉ループの座標データ)と色、塗り方等のメイクテクニックに関する数値情報等のパラメータ情報等からなるメイク情報で構成されているため、付加価値のある動画像を効率的に伝送することができる。   The transmission device 11, the moving image management server 12, and the reception device 13 in the present embodiment described above require raster data (an aggregate of image pixels) and vector data (closed loop coordinate data representing a region). Since it is composed of makeup information consisting of parameter information such as numerical information related to makeup techniques such as color and painting method, it is possible to efficiently transmit value-added moving images.

<本実施形態における動画伝送の具体例>
ここで、本実施形態における動画伝送の具体例について、図を用いて説明する。図5は、本実施形態における画像フレームの伝送の様子を説明するための図である。
<Specific example of moving picture transmission in this embodiment>
Here, a specific example of moving image transmission in the present embodiment will be described with reference to the drawings. FIG. 5 is a diagram for explaining how image frames are transmitted in the present embodiment.

本実施形態においては、動画送信に対して、送信及び受信(再生)の双方のソフトウェアを用いて、通常の原画像に対する動作はそのままの既存動画送信システム61とし、フレーム(例えば、テレビ等で約15〜30フレーム/秒(fps))それぞれに対して仮想メイクアップシミュレーション動画伝送システム62としてそれぞれ伝送するために画像伝送データを解析する。   In the present embodiment, with respect to moving image transmission, both the transmission and reception (playback) software are used, and the operation for the normal original image is used as it is, and the existing moving image transmission system 61 is used. The image transmission data is analyzed for transmission as the virtual makeup simulation moving image transmission system 62 for each of 15 to 30 frames / second (fps).

なお、送信装置11には、送信ソフトウェアと本実施形態におけるマスクデータとしてのメイク情報(例えば、ベクター情報やパラメータ情報)を取得するための送信ソフトウェアが予めインストールされており、一方、受信装置13には、受信ソフトウェアと本実施形態におけるメイク情報(マスク)から仮想メイク画像を生成するための受信ソフトウェアが予めインストールされている。   The transmission apparatus 11 is preinstalled with transmission software and transmission software for acquiring makeup information (for example, vector information and parameter information) as mask data in the present embodiment. Is installed in advance with reception software for generating a virtual makeup image from the reception software and makeup information (mask) in the present embodiment.

図5に示すように、仮想メイク画像からマスクデータとして上述したメイク情報を抽出して、それぞれ原画像の各フレームと同期(シンクロ)を取りながら対応するフレームを伝送する。   As shown in FIG. 5, the above-described makeup information is extracted as mask data from the virtual makeup image, and the corresponding frame is transmitted while being synchronized (synchronized) with each frame of the original image.

なお、図5に示すマスクデータの例では、原画像フレームに対応するマスクデータ(メイク情報)を1フレーム毎に対応させて送信しているが本発明においてはこれに限定されるものではなく、例えば、数フレーム毎に1つのメイク情報を生成してもよく、動画中の前後のフレームの顔の動き等に応じて動きの大きい場合は、マスクフレームの間隔を短くし、動きの小さい場合は、マスクフレームの間隔を長くしても誤差がないため、フレーム間隔を撮影されている人物の動きに応じて調整することもできる。なお、撮影された人物の動きについては、前後の画像の画素毎の色度情報に基づいて動きを抽出する一般的な画像解析手法等を用いることができる。なお、この場合には、複数の原画像フレームに対して1つのマスクフレームを用いてマスクさせるといった処理を行うことができる。   In the example of the mask data shown in FIG. 5, mask data (make information) corresponding to the original image frame is transmitted corresponding to each frame, but the present invention is not limited to this. For example, one makeup information may be generated every several frames. When the movement is large according to the movement of the face of the previous and subsequent frames in the video, the mask frame interval is shortened, and when the movement is small Since there is no error even if the mask frame interval is increased, the frame interval can be adjusted according to the movement of the person being photographed. As for the motion of the photographed person, a general image analysis method or the like that extracts motion based on chromaticity information for each pixel of the previous and subsequent images can be used. In this case, a process of masking a plurality of original image frames using one mask frame can be performed.

上述したように、送信側からオリジナルの動画ストリーム信号として連続した画像フレーム(ラスター情報)を送信するタイミングに同期させて、その画像フレームに対応するメイク情報(例えば、ベクター情報やパラメータ情報)等を送信することで、例えば課金処理等を行う場合に、メイク情報からデータ量やデータの内容等による伝送時の情報量を基準に効率的に算出することができるため、ユーザ毎の利用内容に応じて適切な課金設定を高精度に行うことができる。   As described above, the make information (for example, vector information and parameter information) corresponding to the image frame is synchronized with the timing of transmitting a continuous image frame (raster information) as an original video stream signal from the transmission side. For example, when charging processing is performed, it is possible to efficiently calculate the amount of information at the time of transmission based on the amount of data and the content of the data from the makeup information, so depending on the usage details for each user Therefore, appropriate billing settings can be made with high accuracy.

<本実施形態におけるメイク情報の生成について>
次に、本実施形態におけるメイク情報の生成について、具体的に図を用いて説明する。図6は、本実施形態におけるメイク情報の生成処理について説明するための図である。なお、図6には、仮想メイクアップシミュレーション等のソフトウェアが行う処理を表す画面イメージが示されている。
<Generation of Make Information in the Present Embodiment>
Next, generation of makeup information in the present embodiment will be specifically described with reference to the drawings. FIG. 6 is a diagram for explaining a makeup information generation process according to the present embodiment. FIG. 6 shows a screen image representing processing performed by software such as virtual makeup simulation.

図6(a)では、カメラ等により実際に撮影された仮想メイクアップ前画像(原画像)を表示した例を表している。また、図6(b)では、顔認識処理により得られた輪郭情報やトラッキングポイントをメイクアップ前画像に重ねて表示した例を表している。また、図6(c)では、得られた情報に基づいて仮想メイクアップ前画像に含まれるユーザの顔にメイクアップを施したメイクアップ後画像(仮想メイク画像)を表示した例を表している。   FIG. 6A shows an example in which an image before virtual makeup (original image) actually taken by a camera or the like is displayed. FIG. 6B shows an example in which the contour information and tracking points obtained by the face recognition process are displayed superimposed on the pre-makeup image. FIG. 6C shows an example in which a post-makeup image (virtual makeup image) obtained by applying makeup to the user's face included in the pre-virtual makeup image based on the obtained information is displayed. .

送信側ユーザは、図6(c)に示す仮想メイクアップシミュレーション後の画像を確認し、好みの化粧メイク画像が得られた場合には、そのデータに基づいて、オリジナルの動画情報(ラスター情報)(図6(d))と、メイク情報(図6(e))とを取得する。   The transmission-side user confirms the image after the virtual makeup simulation shown in FIG. 6C, and when a favorite makeup image is obtained, based on the data, original moving image information (raster information) (FIG. 6D) and makeup information (FIG. 6E) are acquired.

ここで、メイク情報は、上述したように撮影された顔の「輪郭情報」や「メイク塗布エリア(例えば、座標(x,y,z))、色情報等のベクターデータ、ベクター座標値、メイクテクニックを表したパラメータ情報が、「ユーザ情報」や原画像と同期を取るためにフレームに付加された「フレーム情報」と共に記録されている。   Here, the makeup information includes “contour information” and “make application area (for example, coordinates (x, y, z)) of face taken as described above, vector data such as color information, vector coordinate values, makeup information, and the like. Parameter information representing the technique is recorded together with “user information” and “frame information” added to the frame for synchronization with the original image.

なお、メイク情報としては、本発明においてはこれに限定されるものではなく、例えば、フレーム情報の代わりに時間情報が含まれていてもよく、その他の情報が含まれていてもよい。これにより、動画管理サーバ12や受信装置13は、これらの情報に基づいて、予めインストールされたソフトウェアに基づいて、原画像の所定フレーム(ラスター情報)に対して上述したメイク情報との合成処理を行い、仮想メイク画像を生成することができる。これにより、課金処理や実際にメイク情報を通じたテレビ電話による通話を実現することができる。なお、上述した図6(d)は、図6(a)の画像をそのまま使用することもできる。   The makeup information is not limited to this in the present invention. For example, time information may be included instead of frame information, or other information may be included. As a result, the moving image management server 12 and the receiving device 13 perform the combining process with the above-described makeup information on the predetermined frame (raster information) of the original image based on the previously installed software based on these pieces of information. And a virtual makeup image can be generated. As a result, it is possible to realize a telephone call through video processing through billing processing or actual makeup information. Note that FIG. 6D described above can use the image of FIG. 6A as it is.

また、図7は、動画管理サーバにおける課金処理の一例を示すものである。図7に示す例では、図6に示す原画像(図6(d))と、メイク情報(図6(e))とに基づいて、動画管理サーバ12において、仮想メイク情報DB63に含まれているデータから仮想メイクアップシミュレーションを行うための対応する各種情報を抽出し、原画像に仮想メイクアップシミュレーションを施すことにより、仮想メイク画像を生成することができる。また、上述したメイク情報に基づく課金処理は、例えば、動画管理サーバ12に設けられる課金DB64に格納される。   FIG. 7 shows an example of billing processing in the moving image management server. In the example shown in FIG. 7, the video management server 12 includes the virtual makeup information DB 63 based on the original image shown in FIG. 6 (FIG. 6D) and the makeup information (FIG. 6E). A virtual makeup image can be generated by extracting various corresponding information for performing a virtual makeup simulation from existing data and performing a virtual makeup simulation on the original image. In addition, the charging process based on the makeup information described above is stored in, for example, a charging DB 64 provided in the moving image management server 12.

また、図8は、仮想メイクアップシミュレーションにおけるパラメータ情報の一例を示す図である。図8に示すパラメータ情報は、仮想メイク情報DB63に含まれており、そのパラメータファイルよって、目元,口元,チーク等にそれぞれトラッキングポイントと関連付けてメイクアップの施し方や色等のメイクテクニックが設定されており、これにより、仮想メイクが行われる。なお、上述したパラメータファイルは、メイクアップパターン(イメージ)毎に設定されるものであり、図8の例では、クラスエレガンスの例を表している。   FIG. 8 is a diagram showing an example of parameter information in the virtual makeup simulation. The parameter information shown in FIG. 8 is included in the virtual makeup information DB 63, and makeup parameters such as makeup method and color are set in the parameter file in association with the tracking points for the eyes, mouth, and cheeks, respectively. Thus, virtual makeup is performed. The parameter file described above is set for each makeup pattern (image), and the example of FIG. 8 represents an example of class elegance.

本実施形態では、仮想メイクアップ前画像(原画像)に仮想メイクを施す場合に、仮想メイクアップの前画像に含まれるユーザの顔から輪郭情報や塗布エリアを得ることにより、仮想メイク画像生成手段はその輪郭情報等と関連付けてメイクアップの施し方や色等のメイクテクニックを図8のようなパラメータ情報として設定しておくことができる。また、本実施形態では、メイクアップ処理の一例として、ファンデーション処理、眉処理、シャドウ処理、口紅処理、及びチーク処理からなる仮想メイク処理を行うことができ、また他の処理との組み合わせであってもよい。   In this embodiment, when virtual makeup is applied to an image before virtual makeup (original image), virtual makeup image generation means is obtained by obtaining contour information and application areas from the user's face included in the image before virtual makeup. In association with the contour information and the like, makeup techniques such as makeup method and color can be set as parameter information as shown in FIG. In the present embodiment, as an example of the makeup process, a virtual makeup process including a foundation process, an eyebrow process, a shadow process, a lipstick process, and a cheek process can be performed, and a combination with other processes is possible. Also good.

また、パラメータ情報は、上述したように、顔に対するメイクアップに限定されずに、例えば、髪型やヘアカラー、帽子、眼鏡、イヤリング、ネックレス、衣類、背景等についてもパラメータファイルを生成しておくことで、多種の仮想メイクを実現することができる。   In addition, as described above, the parameter information is not limited to the makeup for the face, and for example, a parameter file is generated for a hairstyle, hair color, hat, glasses, earrings, necklace, clothing, background, and the like. Thus, a variety of virtual makeup can be realized.

上述したように本実施形態によれば、付加価値のある動画像を効率的に伝送することができる。   As described above, according to the present embodiment, a moving image having added value can be efficiently transmitted.

<動画管理サーバ12の動作について>
ここで、上述した動画管理サーバ12の具体的な動作について、図を用いて説明する。図9は、動画管理サーバの具体的な動作を説明するための図である。なお、図9(a)は、動画管理サーバ12にて仮想メイク画像を生成して、複数の受信装置(図9の例では、一例として受信装置13−1〜13−3)に一度に伝送する例を示し、図9(b)は、オリジナルの動画情報及びメイク情報をそれぞれ送信し、複数の受信装置(図9の例では、一例として受信装置13−1〜13−3)において、それぞれ仮想メイク画像を生成する例を示している。つまり、図9(a)は、動画管理サーバ12側で複数配信先に異なるメーキャップの動画を生成し配信する例を示し、図9(b)は、動画管理サーバ12側で動画情報とメイク情報(ベクター+数値情報等)を平行して配信し、各受信装置13−1〜13−3上でそれぞれ異なる処理をして動画を生成する例を示している。
<Operation of the video management server 12>
Here, a specific operation of the above-described moving image management server 12 will be described with reference to the drawings. FIG. 9 is a diagram for explaining a specific operation of the moving image management server. In FIG. 9A, a virtual makeup image is generated by the moving image management server 12 and transmitted to a plurality of receiving apparatuses (in the example of FIG. 9, receiving apparatuses 13-1 to 13-3 as an example) at a time. FIG. 9B shows an example in which the original moving image information and the makeup information are respectively transmitted. In the plurality of receiving apparatuses (in the example of FIG. 9, receiving apparatuses 13-1 to 13-3 as an example) An example of generating a virtual makeup image is shown. That is, FIG. 9A shows an example of generating and distributing moving images having different makeups to a plurality of distribution destinations on the moving image management server 12 side, and FIG. 9B shows moving image information and makeup information on the moving image management server 12 side. In this example, (vector + numerical information, etc.) is distributed in parallel, and a moving image is generated by performing different processes on each of the receiving devices 13-1 to 13-3.

本実施形態では、例えばストリーミング等により顔画像を同時に複数の受信者に送付する場合に、動画管理サーバ12から送信されるベクターデータ及びパラメータ情報をそれぞれの受信者に合わせて変化させることで、各受信装置に異なる表現をすることも可能となる。   In the present embodiment, for example, when a face image is simultaneously sent to a plurality of recipients by streaming or the like, each vector data and parameter information transmitted from the video management server 12 is changed according to each recipient. It is also possible to make different expressions on the receiving device.

例えば、仮想空間において、複数人が集うパーティー等を行う場合、本実施形態では、受信相手に合わせて異なるメイクの自分像を配信することができる。この場合、図9(a)に示すような既存のストリーミング等の技術を使用すると、個々に別々のストリーミング動画(ラスターデータ)を生成する必要が生じるため、受信装置13−1〜13−3側での負荷がない分、動画管理サーバ12に大きな負荷がかかる。   For example, when performing a party where a plurality of people gather in a virtual space, in the present embodiment, it is possible to deliver a self-image with a different makeup according to the receiving party. In this case, when the existing technology such as streaming as shown in FIG. 9A is used, it is necessary to individually generate separate streaming videos (raster data). Since there is no load on the moving image management server 12, a large load is applied.

そこで、図9(b)に示すように例えばラスターデータと、ベクターデータや数値情報等のメイク情報とを同期させて受信側で各個別データ等を用いて処理することにより、異なる処理がそれぞれの受信装置13−1〜13−3で分散的に処理することができる動画管理サーバ12における負荷が少なくなる。また、受信装置13−1〜13−3でも分散した処理が行われるため負荷が少ない。   Therefore, as shown in FIG. 9B, for example, raster data and make information such as vector data and numerical information are synchronized and processed on the receiving side using each individual data. The load on the moving image management server 12 that can be distributedly processed by the receiving devices 13-1 to 13-3 is reduced. In addition, the receiving apparatuses 13-1 to 13-3 perform a distributed process, so that the load is small.

また、本実施形態を用いることで、受信側のパソコンデバイスの状況に合わせた表現が可能となる。具体的に説明すると、例えば、パソコンのディスプレイの発色は、機器により微妙に異なる。したがって、動画管理サーバ12から送信されるベクターデータ及びメイク情報に対して受信装置側で統一したカラー情報により補正し、その誤差を受信したメイク情報の色情報に反映することで、受信側の環境で正確な発色を実現することができる。   In addition, by using this embodiment, it is possible to express in accordance with the situation of the personal computer device on the receiving side. More specifically, for example, the color of a personal computer display is slightly different depending on the device. Therefore, by correcting the vector data and makeup information transmitted from the moving image management server 12 with the color information unified on the receiving device side, and reflecting the error in the color information of the received makeup information, the environment on the receiving side is corrected. Can realize accurate color development.

なお、図9の例では、複数の受信装置の数を3つにして説明したが、本発明においてはこれに限定されるものではなく、2つや4つ以上でもよい。   In the example of FIG. 9, the number of the plurality of receiving apparatuses is three. However, the present invention is not limited to this, and may be two or four or more.

<第2の実施形態>
<送信装置11':機能構成例>
第1の実施形態における送信装置11については、仮想メイク画像生成手段25において、仮想メイク画像を生成した際に得られるメイク情報を取得してオリジナルの動画情報と別々に受信装置13に送信する例について説明したが、本発明においては、これに限定されるものではなく、例えば、仮想メイク画像生成手段25から仮想メイク部分のみの情報を仮想メイクフレーム情報として取得し、その仮想メイクフレームをオリジナルの動画情報とは別に送信するようにしてもよい。
<Second Embodiment>
<Transmitter 11 ′: Functional Configuration Example>
As for the transmission device 11 in the first embodiment, the virtual makeup image generation unit 25 acquires makeup information obtained when a virtual makeup image is generated, and transmits the makeup information separately to the original moving image information to the reception device 13. However, the present invention is not limited to this. For example, information on only the virtual makeup portion is acquired as virtual makeup frame information from the virtual makeup image generation means 25, and the virtual makeup frame is converted into the original makeup frame. You may make it transmit separately from moving image information.

ここで、上述の内容を第2の実施形態とし、特に第1の実施形態と異なる部分について、具体的に説明する。図10は、第2の実施形態における送信装置の機能構成の一例を示す図である。図10に示す送信装置11'は、上述した第1の実施形態における送信装置11と比較すると、メイク情報取得手段26の代わりにフレーム分離手段70が設けられている。なお、図10において、図2に示す第1の実施形態における送信装置11と同様の機能を有する部分については同一の番号を付するものとしてここでの詳細な説明は省略する。   Here, the above-described content is set as the second embodiment, and particularly, a different part from the first embodiment will be specifically described. FIG. 10 is a diagram illustrating an example of a functional configuration of the transmission device according to the second embodiment. The transmission apparatus 11 ′ shown in FIG. 10 is provided with a frame separation means 70 instead of the makeup information acquisition means 26, as compared with the transmission apparatus 11 in the first embodiment described above. 10, parts having the same functions as those of the transmission apparatus 11 in the first embodiment shown in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted here.

フレーム分離手段70は、仮想メイク画像を、撮像手段24により撮影された動画像を構成する原画像フレームと仮想メイクアップシミュレーション部分のみを抽出した仮想メイクフレームとに分離する。   The frame separation unit 70 separates the virtual makeup image into an original image frame constituting a moving image photographed by the imaging unit 24 and a virtual makeup frame obtained by extracting only the virtual makeup simulation portion.

なお、フレーム分離手段70は、上記の分離行う場合には、例えば、同一フレームの原画像と仮想メイク画像とを比較し、それぞれの画素毎の色度情報等に基づき、その色差が所定数以上のものを抽出することにより仮想メイクフレーム情報を抽出することができる。なお、フレーム分離手段70は、分離した原画像フレームと仮想メイクフレームとがそれぞれ同期が取れるように、上述した時間情報やフレーム情報等のフレーム識別情報を付与する。   When performing the above-described separation, the frame separation unit 70 compares, for example, the original image and the virtual makeup image of the same frame, and the color difference is equal to or greater than a predetermined number based on chromaticity information for each pixel. Virtual makeup frame information can be extracted. Note that the frame separation means 70 gives the frame identification information such as the time information and the frame information described above so that the separated original image frame and the virtual make frame can be synchronized.

フレーム分離手段70によって原画像フレームと仮想メイクフレームとを分離することで、仮想メイクに関するデータ量やデータ内容のみを容易且つ正確に取得することができ、この計測結果に基づいて、データ量やデータ内容に基づく課金処理を行うことができる。   By separating the original image frame and the virtual makeup frame by the frame separating means 70, it is possible to easily and accurately acquire only the data amount and the data content related to the virtual makeup. Based on this measurement result, the data amount and data Charge processing based on the contents can be performed.

また、フレーム分離手段70により、仮想メイクアップシミュレーション部分のみからなる画像のみを用いて、データ量を削減することができ伝送効率を向上させると共に、伝送中の仮想メイクフレームの内容を第三者に見られても具体的な内容を把握することができないため、秘匿性を向上させることができる。   Also, the frame separation means 70 can reduce the amount of data by using only the image made up of only the virtual makeup simulation portion, improve the transmission efficiency, and make the contents of the virtual makeup frame being transmitted to a third party. Even if it is seen, it is impossible to grasp the specific contents, so that confidentiality can be improved.

なお、上述した第1の実施形態の機能の他にも、第2の実施形態における入力手段21は、フレーム分離指示の入力を行い、制御手段29は、例えばユーザ等による入力手段21からの各種指示情報等に基づいて、分離処理等の各制御を行う。   In addition to the functions of the first embodiment described above, the input unit 21 in the second embodiment inputs a frame separation instruction, and the control unit 29 performs various operations from the input unit 21 by a user or the like, for example. Each control such as separation processing is performed based on the instruction information and the like.

また、第2の実施形態における動画管理サーバ12及び受信装置13では、第1の実施形態におけるメイク情報の代わりに仮想メイクフレーム情報を用いて、同様に課金の計算や仮想メイク画像の生成を行う。   In addition, the moving image management server 12 and the receiving device 13 in the second embodiment similarly calculate the charge and generate the virtual makeup image using the virtual makeup frame information instead of the makeup information in the first embodiment. .

ここで、図11は、第2の実施形態における分離処理の実施例について説明するための図である。なお、図11の実施例において、図11(a)〜(d)と、上述した図6(a)〜(d)とは同一であるため、ここでの具体的な説明は省略する。   Here, FIG. 11 is a diagram for explaining an example of the separation processing in the second embodiment. In the embodiment of FIG. 11, FIGS. 11A to 11D are the same as FIGS. 6A to 6D described above, and a specific description thereof is omitted here.

送信側ユーザは、図11(c)に示す仮想メイクアップシミュレーション後の画像を確認し、好みの化粧メイク画像が得られた場合には、そのデータに基づいて、元の原画像フレーム(図11(d))と、仮想メイクフレーム(図11(e))とに分離する。そして、それぞれのフレームに、受信側で同期させるための識別情報(例えば、フレーム情報)や時間情報等を付加し、動画管理サーバ12や、テレビ電話やテレビ会議の相手の受信装置13に送信する。これにより、課金処理や実際に仮想メイクフレームを通じたテレビ電話による通話を実現することができる。なお、上述した図11(d)は、図11(a)の画像をそのまま使用することもできる。   The transmission-side user confirms the image after the virtual makeup simulation shown in FIG. 11C, and when a favorite makeup image is obtained, the original original image frame (FIG. 11) is obtained based on the data. (D)) and a virtual makeup frame (FIG. 11 (e)). Then, identification information (for example, frame information) and time information to be synchronized on the receiving side are added to each frame, and transmitted to the moving image management server 12 or the receiving device 13 of the other party of the videophone or videoconference. . As a result, it is possible to realize a telephone call through billing processing or actually through a virtual make frame. Note that in FIG. 11D described above, the image of FIG. 11A can be used as it is.

<各装置におけるハードウェア構成例>
ここで、上述した動画伝送システム10における送信装置11(11')、動画管理サーバ12、及び受信装置13においては、各機能をコンピュータに実行させることができる実行プログラムを生成し、例えば汎用のパーソナルコンピュータ、サーバ等にその実行プログラムをインストールすることにより、本発明における動画伝送処理等を実現することができる。ここで、本実施形態における動画伝送処理が実現可能なコンピュータのハードウェア構成例について図を用いて説明する。
<Example of hardware configuration in each device>
Here, in the transmission device 11 (11 ′), the video management server 12, and the reception device 13 in the video transmission system 10 described above, an execution program capable of causing a computer to execute each function is generated. By installing the execution program in a computer, a server, etc., the moving image transmission processing in the present invention can be realized. Here, a hardware configuration example of a computer capable of realizing the moving image transmission process in the present embodiment will be described with reference to the drawings.

図12は、本実施形態における動画伝送処理が実現可能なハードウェア構成の一例を示す図である。図12におけるコンピュータ本体には、入力装置71と、出力装置72と、ドライブ装置73と、補助記憶装置74と、メモリ装置75と、各種制御を行うCPU(Central Processing Unit)76と、ネットワーク接続装置77とを有するよう構成されており、これらはシステムバスBで相互に接続されている。   FIG. 12 is a diagram illustrating an example of a hardware configuration capable of realizing the moving image transmission process according to the present embodiment. 12 includes an input device 71, an output device 72, a drive device 73, an auxiliary storage device 74, a memory device 75, a CPU (Central Processing Unit) 76 that performs various controls, and a network connection device. 77, which are connected to each other by a system bus B.

入力装置71は、ユーザ等が操作するキーボード及びマウス等のポインティングデバイスを有しており、ユーザ等からのプログラムの実行等、各種操作信号を入力する。また、入力装置71は、ネットワーク接続装置77等に接続された外部装置から通信ネットワーク14を介して得られる、外部装置等で既に撮影された原画像等の各種データを入力することもできる。   The input device 71 has a pointing device such as a keyboard and a mouse operated by a user or the like, and inputs various operation signals such as execution of a program from the user or the like. The input device 71 can also input various data such as an original image already captured by the external device or the like obtained from the external device connected to the network connection device 77 or the like via the communication network 14.

出力装置72は、本発明における処理を行うためのコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU76が有する制御プログラムによりプログラムの実行経過や結果等を表示することができる。また、出力装置72は、上述の処理結果等を紙等の印刷媒体に印刷して、ユーザ等に提示することができる。   The output device 72 has a display for displaying various windows, data, and the like necessary for operating the computer main body for performing processing in the present invention, and displays the program execution progress and results by the control program of the CPU 76. can do. Further, the output device 72 can print the above processing result or the like on a print medium such as paper and present it to the user or the like.

ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えば、USB(Universal Serial Bus)メモリやCD−ROM、DVD等の可搬型の記録媒体78等により提供される。プログラムを記録した記録媒体78は、ドライブ装置73にセット可能であり、記録媒体78に含まれる実行プログラムが、記録媒体78からドライブ装置73を介して補助記憶装置74にインストールされる。   Here, the execution program installed in the computer main body in the present invention is provided by, for example, a portable recording medium 78 such as a USB (Universal Serial Bus) memory, a CD-ROM, a DVD, or the like. The recording medium 78 on which the program is recorded can be set in the drive device 73, and the execution program included in the recording medium 78 is installed from the recording medium 78 to the auxiliary storage device 74 via the drive device 73.

補助記憶装置74は、ハードディスク等のストレージ手段であり、本発明における実行プログラムや、コンピュータに設けられた制御プログラム等を蓄積し必要に応じて入出力を行うことができる。   The auxiliary storage device 74 is a storage means such as a hard disk, and can store an execution program according to the present invention, a control program provided in a computer, etc., and perform input / output as necessary.

メモリ装置75は、CPU76により補助記憶装置74から読み出された実行プログラム等を格納する。なお、メモリ装置75は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。   The memory device 75 stores an execution program or the like read from the auxiliary storage device 74 by the CPU 76. The memory device 75 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPU76は、OS(Operating System)等の制御プログラム、及びメモリ装置75に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御して各処理を実現することができる。なお、プログラムの実行中に必要な各種情報等は、補助記憶装置74から取得することができ、また実行結果等を格納することもできる。   The CPU 76 controls processing of the entire computer, such as various operations and input / output of data with each hardware component, based on a control program such as an OS (Operating System) and an execution program stored in the memory device 75. Thus, each processing can be realized. Various information necessary during the execution of the program can be acquired from the auxiliary storage device 74, and the execution result and the like can also be stored.

ネットワーク接続装置77は、通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている他の端末等から取得したり、プログラムを実行することで得られた実行結果又は本発明における実行プログラム自体を他の端末等に提供することができる。   The network connection device 77 obtains an execution program from another terminal connected to the communication network by connecting to a communication network or the like, or an execution result obtained by executing the program or an execution in the present invention The program itself can be provided to other terminals.

上述したようなハードウェア構成により、本発明における動画伝送処理を実行することができる。また、プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本発明における動画伝送処理を容易に実現することができる。   With the hardware configuration as described above, the moving image transmission process in the present invention can be executed. Further, by installing the program, the moving image transmission process according to the present invention can be easily realized by a general-purpose personal computer or the like.

以下に、本実施形態の動画伝送処理における送信処理、動画管理処理、受信処理の各処理手順についてフローチャート等を用いて説明する。なお、以下の処理手順では、主に第1の実施形態について説明するが、必要に応じて適宜第2の実施形態に対応させて説明する。   Hereinafter, each processing procedure of transmission processing, moving image management processing, and reception processing in the moving image transmission processing of the present embodiment will be described with reference to flowcharts and the like. In the following processing procedure, the first embodiment will be mainly described. However, it will be described corresponding to the second embodiment as needed.

<動画伝送処理:送信処理手順>
本実施形態における送信処理手順について説明する。なお、以下に示す送信処理手順では、既にテレビ電話の発呼が完了している状態における動画伝送システムについて説明するものである。
<Video transmission processing: transmission processing procedure>
A transmission processing procedure in this embodiment will be described. In the following transmission processing procedure, the video transmission system in a state where a videophone call has already been completed will be described.

図13は、本実施形態における送信処理手順の一例を示すフローチャートである。図13においては、送信装置11は、まず、撮影手段等によりユーザの顔を含む動画像を取得する(S01)。次に、仮想メイクアップシミュレーションを使用するか否かを判断し(S02)、仮想メイクアップシミュレーションを使用する場合(S02において、YES)、シミュレーションを行って仮想メイク画像を生成し(S03)、シミその結果を画面に表示する(S04)。   FIG. 13 is a flowchart illustrating an example of a transmission processing procedure in the present embodiment. In FIG. 13, the transmission device 11 first acquires a moving image including the user's face by using a photographing unit or the like (S01). Next, it is determined whether or not virtual makeup simulation is used (S02). When virtual makeup simulation is used (YES in S02), simulation is performed to generate a virtual makeup image (S03). The result is displayed on the screen (S04).

ここで、表示された仮想メイク画像をユーザに確認させ、OKの指示が入力されたか否かを判断し(S05)、OKでない場合(S05において、NO)、S03に戻り、他のパラメータ等による仮想メイクアップシミュレーションを行う。   Here, the displayed virtual makeup image is confirmed by the user, and it is determined whether or not an OK instruction has been input (S05). If not OK (NO in S05), the process returns to S03, and other parameters are used. Perform virtual makeup simulation.

また、S05においてOKである場合(S05において、YES)、仮想メイク画像の生成により得られるメイク情報を取得し(S06)、取得した情報に基づいて原画像とメイク情報とを別々に受信装置に送信する(S07)。なお、S02の処理において、仮想メイクアップシミュレーションを使用しない場合(S02において、NO)、原画像をそのまま送信する(S08)。   If the result is OK in S05 (YES in S05), the makeup information obtained by generating the virtual makeup image is acquired (S06), and the original image and the makeup information are separately sent to the receiving device based on the acquired information. Transmit (S07). In the process of S02, when the virtual makeup simulation is not used (NO in S02), the original image is transmitted as it is (S08).

また、S07又はS08の処理が終了後、テレビ電話を終了するか否かをユーザの指示より判断し(S09)、テレビ電話を終了しない場合(S09において、NO)、S01に戻り、後続の処理を行う。   In addition, after the processing of S07 or S08 is completed, it is determined whether or not to end the videophone call based on the user's instruction (S09). I do.

また、S09の処理において、テレビ電話を終了する場合(S09において、YES)、本実施形態における動画送信処理を終了する。   Further, in the process of S09, when the videophone is terminated (YES in S09), the moving image transmission process in the present embodiment is terminated.

なお、第2の実施形態では、S05においてOKである場合(S05において、YES)、S06の処理において原画像フレームと仮想メイクフレームとを分離し、S07の処理において分離した情報に基づいて原画像と仮想メイクフレームとを別々に受信装置に送信する。   In the second embodiment, if it is OK in S05 (YES in S05), the original image frame and the virtual makeup frame are separated in the process of S06, and the original image is based on the information separated in the process of S07. And the virtual make frame are separately transmitted to the receiving device.

<動画伝送処理:動画管理処理手順>
次に、本実施形態における動画管理処理手順について説明する。なお、以下に示す動画管理処理手順では、既にテレビ電話の通話中状態における動画伝送システムについて説明するものである。
<Video transmission processing: Video management processing procedure>
Next, the moving image management processing procedure in this embodiment will be described. Note that the moving picture management processing procedure described below is for explaining the moving picture transmission system in a videophone call state.

図14は、本実施形態における動画管理処理手順の一例を示すフローチャートである。図14においては、動画管理サーバ12は、まず送信装置11からメイク情報を取得すると(S11)、そのデータの情報量を取得する(S12)。なお、S12の処理では、上述したように、メイク情報に対するデータ量やデータ内容等を取得する。次に、S12で得られた内容に基づいて課金処理を行う(S13)。   FIG. 14 is a flowchart illustrating an example of a moving image management processing procedure in the present embodiment. In FIG. 14, when the moving image management server 12 first acquires makeup information from the transmission device 11 (S11), it acquires the information amount of the data (S12). In the process of S12, as described above, the data amount, the data content, and the like for the makeup information are acquired. Next, a charging process is performed based on the content obtained in S12 (S13).

その後、原画像を取得し(S14)、S11の処理で取得したメイク情報に基づき、原画像から仮想メイク画像を生成し(S15)、受信装置13へ仮想メイク画像を送信する(S16)。   Thereafter, an original image is acquired (S14), a virtual makeup image is generated from the original image based on the makeup information acquired in the process of S11 (S15), and the virtual makeup image is transmitted to the receiving device 13 (S16).

なお、S15の処理においては、上述したように、メイク情報に予め付加されているフレーム識別情報や時間情報等に基づいて、原画像とメイク情報とを同期させて仮想メイク画像の生成を行い、更にメイク情報に含まれる数値等のパラメータを演算したり、パラメータ情報を用いて仮想メイク情報DB63等を参照して、各種パラメータや画像データ等を取得し、取得した各種データに基づいて、原画像に仮想メイクアップを施し仮想メイク画像を生成する。   In the process of S15, as described above, based on the frame identification information and time information previously added to the makeup information, the virtual image is generated by synchronizing the original image and the makeup information, Further, parameters such as numerical values included in the makeup information are calculated, or various parameters and image data are obtained by referring to the virtual makeup information DB 63 using the parameter information. Based on the obtained various data, the original image is obtained. A virtual makeup image is generated by performing virtual makeup.

ここで、動画管理処理を終了するか否かを判断し(S17)、ユーザからの指示等がなく処理が終了でない場合(S17において、NO)、S11に戻り後続の処理を行う。また、S17の処理において、処理を終了する指示が入力された場合(S17において、YES)、本実施形態における動画伝送処理を終了する。   Here, it is determined whether or not to end the moving image management process (S17). If there is no instruction from the user and the process is not completed (NO in S17), the process returns to S11 to perform the subsequent process. In the process of S17, when an instruction to end the process is input (YES in S17), the moving image transmission process in the present embodiment is ended.

なお、S16の処理においては、予め設定された送信設定内容に基づいてS15の処理にて仮想メイク画像の生成を行わずに、課金のみを行った原画像とメイク情報とを出力することができる。また、第2の実施形態では、S11の処理において、仮想メイクフレームを取得し、S12,S13の処理において、その取得したフレームの情報量により課金が行われる。更に、S15の処理において、原画像フレームと仮想メイクフレームとを合成し、S16の処理において合成した仮想メイク画像を送信する。なお、合成の際には、仮想メイクフレームが原画像フレームよりも上面にくるように重ね合わせて合成を行う。   In the process of S16, it is possible to output the original image and the makeup information for which only charging has been performed, without generating a virtual make-up image in the process of S15 based on the transmission setting contents set in advance. . In the second embodiment, a virtual make frame is acquired in the process of S11, and charging is performed according to the information amount of the acquired frame in the processes of S12 and S13. Further, in the process of S15, the original image frame and the virtual make frame are combined, and the virtual make image combined in the process of S16 is transmitted. At the time of composition, the composition is performed by superimposing the virtual makeup frame so that it is on the upper surface of the original image frame.

<動画伝送処理:受信処理手順>
次に、本実施形態における受信処理手順について説明する。なお、以下に示す受信処理手順では、既にテレビ電話の通話中状態における動画伝送システムについて説明するものである。
<Video transmission processing: reception processing procedure>
Next, the reception processing procedure in this embodiment will be described. In the following reception processing procedure, the moving picture transmission system in a videophone call is already described.

図15は、本実施形態における受信処理手順の一例を示すフローチャートである。図15においては、受信装置13は、送信装置11又は動画伝送サーバ12から画像を取得する(S21)。次に、その画像が原画像か否かを判断する(S22)。原画像である場合(S22において、YES)、予め設定された条件に基づいて仮想メイクアップシミュレーションを使用するか否かを判断し(S23)、使用する場合(S23において、YES)、送信装置11又は動画伝送サーバ12からメイク情報を取得し(S24)、取得したメイク情報に基づき、原画像から仮想メイク画像を生成する(S25)。なお、仮想メイク画像の生成は、上述したように、フレーム識別情報や時間情報に基づいて原画像とメイク情報とを同期させて行う。   FIG. 15 is a flowchart illustrating an example of a reception processing procedure in the present embodiment. In FIG. 15, the receiving device 13 acquires an image from the transmitting device 11 or the moving image transmission server 12 (S21). Next, it is determined whether or not the image is an original image (S22). If it is an original image (YES in S22), it is determined whether or not to use a virtual makeup simulation based on a preset condition (S23). If it is used (YES in S23), the transmission device 11 Alternatively, makeup information is acquired from the moving image transmission server 12 (S24), and a virtual makeup image is generated from the original image based on the acquired makeup information (S25). The virtual makeup image is generated by synchronizing the original image and the makeup information based on the frame identification information and the time information as described above.

ここで、S25の処理終了後、その仮想メイク画像を画面表示する(S26)。なお、S22の処理において原画像でない場合(S22において、NO)、既に動画伝送管理サーバ12において生成された仮想メイク画像が伝送されるため、受信した仮想メイク画像をそのまま画面表示する(S26)。   Here, after the process of S25 is completed, the virtual makeup image is displayed on the screen (S26). If it is not an original image in the process of S22 (NO in S22), since the virtual makeup image already generated in the moving image transmission management server 12 is transmitted, the received virtual makeup image is displayed on the screen as it is (S26).

また、S23の処理において、仮想メイクアップシミュレーションを使用しない場合(S23において、NO)、原画像をそのまま画面表示する(S26)。なお、この場合には、送信側ユーザの素顔(すっぴん顔)が表示されてしまうため、画像表示を拒否することもできる。また、本実施形態においては、仮想メイクアップ前画像と仮想メイクアップ後画像とを切り替えて表示させることもできる。   If the virtual makeup simulation is not used in the process of S23 (NO in S23), the original image is displayed on the screen as it is (S26). Note that in this case, since the transmission-side user's face is displayed, the image display can be rejected. In the present embodiment, the pre-virtual makeup image and the virtual after-makeup image can be switched and displayed.

また、S26の処理が終了後、テレビ電話を終了するか否かをユーザの指示より判断し(S27)、テレビ電話を終了しない場合(S27において、NO)、S21に戻り、後続の処理を行う。   In addition, after the process of S26 is completed, it is determined from the user's instruction whether or not the videophone is to be terminated (S27). .

また、S27の処理において、テレビ電話を終了する場合(S27において、YES)、本実施形態における受信処理を終了する。   If the videophone call is terminated in S27 (YES in S27), the reception process in this embodiment is terminated.

なお、第2の実施形態では、S24の処理において、仮想メイクフレームを取得し、S25の処理において、原画像フレームと仮想メイクフレームとを合成し、S26の処理において合成した仮想メイク画像を画面表示する。なお、合成の際には、仮想メイクフレームが原画像フレームよりも上面にくるように重ね合わせて合成を行う。   In the second embodiment, a virtual make frame is acquired in the process of S24, the original image frame and the virtual make frame are combined in the process of S25, and the virtual make image combined in the process of S26 is displayed on the screen. To do. At the time of composition, the composition is performed by superimposing the virtual makeup frame so that it is on the upper surface of the original image frame.

ここで、上述した各実施形態では、素顔に仮想メイクアップした内容について説明するが、本発明においてはこの限りではなく、例えば、ユーザがファンデーションと口紅のみを実際に塗布しているのであれば、他のメイク部分(例えばマスカラやアイシャドウ、チーク等)を仮想メイクして、その部分のみの画像フレーム等を送信するようにしてもよい。   Here, in each of the embodiments described above, the contents of the virtual makeup on the face will be described, but in the present invention is not limited to this, for example, if the user is actually applying only the foundation and lipstick, Another makeup part (for example, mascara, eye shadow, cheek, etc.) may be virtually made and an image frame or the like of only that part may be transmitted.

また、各実施形態における仮想メイクアップシミュレーションで用いられるデータとしては、例えば、「カメラ等で取り込んだ顔の画像(フレーム)」、「その顔画像から解析、抽出した、顔パーツの位置、角度等のジオメトリ情報」、「その顔画像から抽出した顔パーツの形状データ(ベクターデータ)」、「メーキャップ塗布データ(8bitアルファーチャネルデータ)」等のデータから成り立っている。   The data used in the virtual makeup simulation in each embodiment includes, for example, “a face image captured by a camera (frame)”, “a face part position, angle, etc. analyzed and extracted from the face image”. ”Geometry information”, “face part shape data extracted from the face image (vector data)”, “make-up application data (8-bit alpha channel data)”, and the like.

また、仮想メイクアップシミュレーションの原理では、上述したデータのうち、最初の顔画像(フレーム)1つに対し、2番目のジオメトリデータを1つ対応させるように生成し、その位置に3番目及び4番目のデータを使用し、メーキャップ塗布データを作成する。つまり、顔画像データ(フレーム)の上にデータを合成計算することにより(アルファチャネル)顔画像静止画にメーキャップを施した画像を生成することができる。また、動画メイクアップの場合は、上述した原理により生成される静止画(フレーム)を1秒間に15〜30フレームずつ連続的に表示することにより、動画によるメイクアップシミュレーションが可能となる。   Further, in the principle of virtual makeup simulation, among the above-mentioned data, the first face image (frame) is generated so as to correspond to the second geometry data, and the third and fourth positions are generated at that position. The second data is used to create makeup application data. That is, by combining and calculating data on the face image data (frame) (alpha channel), an image obtained by applying a makeup to the still image of the face image can be generated. In the case of moving image makeup, moving image makeup simulation can be performed by continuously displaying still images (frames) generated according to the above-described principle at 15 to 30 frames per second.

また、仮想メーキャップシミュレーション実現のための画像伝送方式としては、例えば、H.264方式等の圧縮方式、又はCDMA−EVDOを始めとする各種デバイスによる動画送信の方法等が適用可能であり、特殊な動画フォーマットを作成したり、送付方式を新たに制定することは困難なばかりでなく、既存の流れを混乱させることとなる。そのため、既存の動画送信方法はそのまま(フレーム方式である限り)で、マスクデータのみを画像データ(フレーム)と同期をとりながら同一回線(インターネット、CDMA等)上で送付し、受信側で合成することにより実現する。   As an image transmission method for realizing a virtual makeup simulation, for example, H.264 is used. It is possible to apply a compression method such as the H.264 method or a moving image transmission method using various devices such as CDMA-EVDO, and it is difficult to create a special moving image format or establish a new transmission method. Instead, it will disrupt the existing flow. Therefore, the existing moving image transmission method remains the same (as long as the frame method is used), and only the mask data is sent on the same line (Internet, CDMA, etc.) while being synchronized with the image data (frame), and is combined on the receiving side. This is realized.

なお、既存の動画送受信システムに必要な処置としては、送信側では、既存の動画送信システムからフレーム毎のビットマップデータを出力する仕組みの追加が必要となる。   As a necessary measure for the existing moving picture transmission / reception system, it is necessary to add a mechanism for outputting bitmap data for each frame from the existing moving picture transmission system on the transmission side.

また、本発明の実施形態に示したように、フレーム番号出力の仕組みの追加フレーム番号を既存システムに入力する仕組みの追加、既存の動画送信システムから入力したフレーム毎のビットマップデータを出力する仕組みの追加等を行う
また、動画の表示の場合は、予め設定されたインタフェースを利用し、送信側では取得したビットマップデータによる解析、抽出を行い、マスクデータを作成する。更に、フレーム毎の同期を取りながら送付する。受信側では受け取ったフレーム番号のビットマップデータを取得し、マスクデータによるメーキャップの合成を行い、画面上に表示する。
In addition, as shown in the embodiment of the present invention, a mechanism for inputting an additional frame number in a mechanism for outputting a frame number to an existing system, a mechanism for outputting bitmap data for each frame input from an existing video transmission system In addition, in the case of displaying a moving image, a preset interface is used, and the transmitting side analyzes and extracts the acquired bitmap data to create mask data. Furthermore, it sends while synchronizing every frame. On the receiving side, bitmap data of the received frame number is acquired, makeup is synthesized using mask data, and displayed on the screen.

上述したように本発明によれば、付加価値のある動画像を効率的に伝送することができる。具体的には、本発明によれば、インターネット等におけるテレビ電話のみならず、デジタルテレビ放送、ビデオオンデマンド等においてバーチャルな化粧を行うデジタルコスメを生成することができ、既存の動画配信技術に何ら変更を加えることなく、上述したマスクフレームと原画像からなるレイヤーとを同期(シンクロ)させることにより実現し、例えば素顔では出られない等といった現在のテレビ電話が抱える問題を解決し、テレビ電話によるグローバルなコミュニケーションの活性化を図ることができる。   As described above, according to the present invention, a moving image having added value can be efficiently transmitted. Specifically, according to the present invention, digital cosmetics for performing virtual makeup can be generated not only for videophones on the Internet, but also for digital TV broadcasting, video on demand, etc. Realized by synchronizing (synchronizing) the mask frame and the original image layer without making any changes to solve the problems of current videophones, such as being unable to come out with real faces. Energize global communication.

また、本発明は、テレビ電話やテレビ会議への適用に限定されず、例えばデジタルテレビ、インターネットテレビ等の発展によるテレビ番組の提供において、画面の表示される1又は複数の出演者に対して本発明を適用して仮想メイクを施すことで、ローコストな番組制作を実現することができる。   Further, the present invention is not limited to application to videophones and videoconferencing. For example, in the provision of TV programs by the development of digital TV, Internet TV, etc., the present invention is applied to one or more performers whose screens are displayed. By applying the invention and applying virtual makeup, low-cost program production can be realized.

以上本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications, within the scope of the gist of the present invention described in the claims, It can be changed.

10,62 動画伝送システム
11,11' 送信装置
12 動画管理サーバ
13 受信装置
14 通信ネットワーク
15 撮像装置
21,31,51 入力手段
22,32,52 出力手段
23,33,53 蓄積手段
24 撮像手段
25,38,56 仮想メイク画像生成手段
26,55 メイク情報取得手段
27 画面生成手段
28,39,57 送受信手段
29,40,58 制御手段
34 端末管理手段
35 送信設定手段
36 仮想メイク情報量取得手段
37 課金手段
54 原画像取得手段
61 既存動画送信システム
63 仮想メイク情報DB
64 課金DB
70 フレーム分離手段
71 入力装置
72 出力装置
73 ドライブ装置
74 補助記憶装置
75 メモリ装置
76 CPU
77 ネットワーク接続装置
78 記録媒体
DESCRIPTION OF SYMBOLS 10,62 Moving image transmission system 11, 11 'Transmitting device 12 Moving image management server 13 Receiving device 14 Communication network 15 Imaging device 21, 31, 51 Input means 22, 32, 52 Output means 23, 33, 53 Accumulating means 24 Imaging means 25 , 38, 56 Virtual makeup image generation means 26, 55 Make information acquisition means 27 Screen generation means 28, 39, 57 Transmission / reception means 29, 40, 58 Control means 34 Terminal management means 35 Transmission setting means 36 Virtual makeup information amount acquisition means 37 Billing means 54 Original image acquisition means 61 Existing video transmission system 63 Virtual makeup information DB
64 Billing DB
70 Frame separating means 71 Input device 72 Output device 73 Drive device 74 Auxiliary storage device 75 Memory device 76 CPU
77 Network connection device 78 Recording medium

Claims (15)

通信ネットワークを介して送信装置と受信装置との間で人物の動画像を伝送する動画伝送システムにおいて、
前記送信装置は、撮像手段により撮影された前記人物の顔を含む原画像に対して、前記顔の所定の位置に仮想メイクアップを施した仮想メイク画像を生成する送信側仮想メイク画像生成手段と、
前記送信側仮想メイク画像生成手段により得られる仮想メイク画像のメイク情報を取得するメイク情報取得手段と、
前記メイク情報取得手段により得られるメイク情報と元の原画像フレームとを別々に前記受信装置に送信する送信手段とを有し、
前記受信装置は、前記送信装置から前記メイク情報と前記原画像フレームとを取得し、それぞれに付加されている識別情報又は時間情報に基づいて、前記原画像フレームに同期した前記メイク情報を反映させて前記仮想メイク画像を生成する受信側仮想メイク画像生成手段とを有することを特徴とする動画伝送システム。
In a video transmission system for transmitting a moving image of a person between a transmission device and a reception device via a communication network,
The transmission device includes a transmission-side virtual makeup image generation unit that generates a virtual makeup image obtained by performing virtual makeup on a predetermined position of the face with respect to an original image including the face of the person photographed by an imaging unit. ,
Makeup information acquisition means for acquiring makeup information of a virtual makeup image obtained by the transmission-side virtual makeup image generation means;
Transmission means for separately transmitting the makeup information obtained by the makeup information acquisition means and the original original image frame to the reception device;
The receiving device acquires the makeup information and the original image frame from the transmitting device, and reflects the makeup information synchronized with the original image frame based on identification information or time information added to each. And a receiving-side virtual make-up image generating means for generating the virtual make-up image.
前記通信ネットワークを介して前記送信装置及び前記受信装置とデータの送受信が可能な動画伝送管理装置を有し、
動画伝送管理装置は、前記送信装置から前記メイク情報を取得し、取得した前記メイク情報のデータ量を取得するデータ量取得手段と、前記データ量取得手段により得られるデータ量に基づいて、前記動画像の伝送に対する課金を行う課金手段とを有することを特徴とする請求項1に記載の動画伝送システム。
A video transmission management device capable of transmitting and receiving data to and from the transmission device and the reception device via the communication network;
The moving image transmission management device acquires the makeup information from the transmitting device, acquires a data amount of the acquired makeup information, and a data amount obtained by the data amount acquisition unit. The moving image transmission system according to claim 1, further comprising charging means for charging for image transmission.
前記メイク情報取得手段は、
前記送信側仮想メイク画像生成手段により得られる仮想メイク画像から、顔のパーツの輪郭情報及び塗布エリアを含むベクターデータと、メイクテクニックに関する数値情報を含むパラメータ情報とを有するメイク情報を取得することを特徴とする請求項1又は2に記載の動画伝送システム。
The makeup information acquisition means
Acquiring from the virtual makeup image obtained by the transmitting-side virtual makeup image generating means, makeup information having vector data including facial part contour information and application area, and parameter information including numerical information related to a makeup technique; The moving image transmission system according to claim 1, wherein the moving image transmission system is a moving image transmission system.
前記動画伝送管理装置は、
前記受信装置毎に予め設定されたユーザ情報又は送信設定内容に基づいて、前記メイク情報の内容を変更し、変更されたメイク情報を送信することを特徴とする請求項2又は3に記載の動画伝送システム。
The video transmission management device is:
The moving image according to claim 2 or 3, wherein the content of the makeup information is changed based on user information or transmission setting content preset for each receiving device, and the changed makeup information is transmitted. Transmission system.
前記動画伝送管理装置は、
前記受信装置のユーザ情報を抽出し、抽出した前記ユーザ情報に基づいて、通話中の前記受信装置に対して前記メイク情報が送信可能な否かを判断し、送信可能な場合に前記メイク情報を送信することを特徴とする請求項2乃至4の何れか1項に記載の動画伝送システム。
The video transmission management device is:
User information of the receiving device is extracted, and based on the extracted user information, it is determined whether or not the makeup information can be transmitted to the receiving device during a call. The moving image transmission system according to any one of claims 2 to 4, wherein the moving image transmission system is transmitted.
通信ネットワークを介して所定の受信装置に対して動画像を伝送する送信装置において、
撮像手段により撮影された前記人物の顔を含む原画像に対して、前記顔の所定の位置に仮想メイクアップを施した仮想メイク画像を生成する仮想メイク画像生成手段と、
前記仮想メイク画像生成手段により得られる仮想メイク画像のメイク情報を取得するメイク情報取得手段と、
前記メイク情報取得手段により得られるメイク情報と元の原画像フレームとを別々に前記受信装置に送信する送信手段とを有することを特徴とする送信装置。
In a transmitting device that transmits a moving image to a predetermined receiving device via a communication network,
Virtual makeup image generation means for generating a virtual makeup image obtained by performing virtual makeup on a predetermined position of the face with respect to an original image including the face of the person photographed by the imaging means;
Makeup information acquisition means for acquiring makeup information of a virtual makeup image obtained by the virtual makeup image generation means;
A transmission apparatus comprising: transmission means for separately transmitting makeup information obtained by the makeup information acquisition means and an original original image frame to the reception apparatus.
前記メイク情報取得手段は、
前記仮想メイク画像生成手段により得られる仮想メイク画像から、顔のパーツの輪郭情報及び塗布エリアを含むベクターデータと、メイクテクニックに関する数値情報を含むパラメータ情報とを有するメイク情報を取得することを特徴とする請求項6に記載の送信装置。
The makeup information acquisition means
Obtaining makeup information having vector data including contour information and application areas of facial parts and parameter information including numerical information related to a makeup technique from a virtual makeup image obtained by the virtual makeup image generation means, The transmission device according to claim 6.
通信ネットワークを介して所定の送信装置から送信された動画像を受信する受信装置において、
前記送信装置にて撮影された原画像フレームを取得する原画像取得手段と、
前記送信装置にて処理された前記原画像フレームに対する仮想メイク画像の生成により得られるメイク情報と取得するメイク情報取得手段と、
前記原画像取得手段により得られる前記原画像フレームと前記メイク情報取得手段により得られるメイク情報とにそれぞれに付加されている識別情報又は時間情報に基づいて、前記原画像フレームに同期した前記メイク情報を反映させて前記仮想メイク画像を生成する仮想メイク画像生成手段とを有することを特徴とする受信装置。
In a receiving apparatus that receives a moving image transmitted from a predetermined transmitting apparatus via a communication network,
Original image acquisition means for acquiring an original image frame photographed by the transmission device;
Makeup information obtained by generation of a virtual makeup image for the original image frame processed by the transmission device and makeup information acquisition means for acquiring;
The makeup information synchronized with the original image frame based on identification information or time information added to the original image frame obtained by the original image obtaining unit and the makeup information obtained by the makeup information obtaining unit, respectively. And a virtual make-up image generating means for generating the virtual make-up image by reflecting the image.
通信ネットワークを介して送信装置と受信装置との間で送受信される人物の動画像を管理する動画伝送管理装置において、
前記送信装置において、撮像手段により撮影された前記人物の顔を含む原画像に対して前記顔の所定の位置に仮想メイクアップを施した仮想メイク画像を生成した際に得られるメイク情報のデータ量を取得するデータ量取得手段と、
前記データ量取得手段により得られるデータ量に基づいて、前記動画像の伝送に対する課金を行う課金手段と、
前記受信装置に対応させて前記メイク情報の内容を変更し、変更されたメイク情報を送信させる送信設定手段とを有することを特徴とする動画伝送管理装置。
In a video transmission management device that manages a moving image of a person transmitted and received between a transmission device and a reception device via a communication network,
Data amount of makeup information obtained when generating a virtual makeup image in which virtual makeup is applied to a predetermined position of the face with respect to an original image including the face of the person photographed by the imaging means in the transmission device A data amount acquisition means for acquiring
Charging means for charging the transmission of the moving image based on the data amount obtained by the data amount acquisition means;
A moving picture transmission management apparatus comprising: transmission setting means for changing contents of the makeup information in correspondence with the receiving apparatus and transmitting the changed makeup information.
前記受信装置のユーザ情報を抽出し、抽出した前記ユーザ情報に基づいて、通話中の前記受信装置に対して前記メイク情報が送信可能な否かを判断し、送信可能な場合に前記メイク情報を送信させる端末管理手段を有することを特徴とする請求項9に記載の動画伝送管理装置。   User information of the receiving device is extracted, and based on the extracted user information, it is determined whether or not the makeup information can be transmitted to the receiving device during a call. 10. The moving image transmission management apparatus according to claim 9, further comprising terminal management means for transmitting. 通信ネットワークを介して所定の受信装置に対して動画像を伝送する送信装置における送信プログラムにおいて、
コンピュータを、
撮像手段により撮影された前記人物の顔を含む原画像に対して、前記顔の所定の位置に仮想メイクアップを施した仮想メイク画像を生成する仮想メイク画像生成手段、
前記仮想メイク画像生成手段により得られる仮想メイク画像のメイク情報を取得するメイク情報取得手段、及び、
前記メイク情報取得手段により得られるメイク情報と元の原画像フレームとを別々に前記受信装置に送信する送信手段として機能させるための送信プログラム。
In a transmission program in a transmission device that transmits a moving image to a predetermined reception device via a communication network,
Computer
Virtual makeup image generation means for generating a virtual makeup image obtained by performing virtual makeup on a predetermined position of the face with respect to an original image including the face of the person photographed by the imaging means;
Makeup information acquisition means for acquiring makeup information of a virtual makeup image obtained by the virtual makeup image generation means; and
A transmission program for causing makeup information obtained by the makeup information acquisition means and the original original image frame to function as transmission means for separately transmitting to the reception device.
前記メイク情報取得手段は、
前記仮想メイク画像生成手段により得られる仮想メイク画像から、顔のパーツの輪郭情報及び塗布エリアを含むベクターデータと、メイクテクニックに関する数値情報を含むパラメータ情報とを有するメイク情報を取得することを特徴とする請求項11に記載の送信プログラム。
The makeup information acquisition means
Obtaining makeup information having vector data including contour information and application areas of facial parts and parameter information including numerical information related to a makeup technique from a virtual makeup image obtained by the virtual makeup image generation means, The transmission program according to claim 11.
通信ネットワークを介して所定の送信装置から送信された動画像を受信する受信装置における受信プログラムにおいて、
コンピュータを、
前記送信装置にて撮影された原画像フレームを取得する原画像取得手段、
前記送信装置にて処理された前記原画像フレームに対する仮想メイク画像の生成により得られるメイク情報と取得するメイク情報取得手段、及び、
前記原画像取得手段により得られる前記原画像フレームと前記メイク情報取得手段により得られるメイク情報とにそれぞれに付加されている識別情報又は時間情報に基づいて、前記原画像フレームに同期した前記メイク情報を反映させて前記仮想メイク画像を生成する仮想メイク画像生成手段として機能させるための受信プログラム。
In a receiving program in a receiving apparatus that receives a moving image transmitted from a predetermined transmitting apparatus via a communication network,
Computer
Original image acquisition means for acquiring an original image frame photographed by the transmission device;
Makeup information obtained by generation of a virtual makeup image for the original image frame processed by the transmission device, makeup information obtaining means for obtaining, and
The makeup information synchronized with the original image frame based on identification information or time information added to the original image frame obtained by the original image obtaining unit and the makeup information obtained by the makeup information obtaining unit, respectively. A receiving program for functioning as virtual make-up image generation means for generating the virtual make-up image while reflecting the above.
通信ネットワークを介して送信装置と受信装置との間で送受信される人物の動画像を管理する動画伝送管理装置における動画伝送管理プログラムにおいて、
コンピュータを、
前記送信装置において、撮像手段により撮影された前記人物の顔を含む原画像に対して前記顔の所定の位置に仮想メイクアップを施した仮想メイク画像を生成した際に得られるメイク情報のデータ量を取得するデータ量取得手段、
前記データ量取得手段により得られるデータ量に基づいて、前記動画像の伝送に対する課金を行う課金手段、及び、
前記受信装置に対応させて前記メイク情報の内容を変更し、変更されたメイク情報を送信させる送信設定手段として機能させるための動画伝送管理プログラム。
In a video transmission management program in a video transmission management device that manages a moving image of a person transmitted and received between a transmission device and a reception device via a communication network,
Computer
Data amount of makeup information obtained when generating a virtual makeup image in which virtual makeup is applied to a predetermined position of the face with respect to an original image including the face of the person photographed by the imaging means in the transmission device Data amount acquisition means for acquiring,
Charging means for charging for transmission of the moving image based on the data amount obtained by the data amount acquiring means; and
A moving picture transmission management program for functioning as transmission setting means for changing the contents of the makeup information corresponding to the receiving device and transmitting the changed makeup information.
前記受信装置のユーザ情報を抽出し、抽出した前記ユーザ情報に基づいて、通話中の前記受信装置に対して前記メイク情報が送信可能な否かを判断し、送信可能な場合に前記メイク情報を送信させる端末管理手段を有することを特徴とする請求項14に記載の動画伝送管理プログラム。   User information of the receiving device is extracted, and based on the extracted user information, it is determined whether or not the makeup information can be transmitted to the receiving device during a call. 15. The moving picture transmission management program according to claim 14, further comprising terminal management means for transmission.
JP2010096949A 2010-04-20 2010-04-20 Moving image transmission system, transmitter, receiver, moving image management device, transmission program, reception program, and moving image management program Pending JP2011228936A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010096949A JP2011228936A (en) 2010-04-20 2010-04-20 Moving image transmission system, transmitter, receiver, moving image management device, transmission program, reception program, and moving image management program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010096949A JP2011228936A (en) 2010-04-20 2010-04-20 Moving image transmission system, transmitter, receiver, moving image management device, transmission program, reception program, and moving image management program

Publications (1)

Publication Number Publication Date
JP2011228936A true JP2011228936A (en) 2011-11-10

Family

ID=45043788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010096949A Pending JP2011228936A (en) 2010-04-20 2010-04-20 Moving image transmission system, transmitter, receiver, moving image management device, transmission program, reception program, and moving image management program

Country Status (1)

Country Link
JP (1) JP2011228936A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014027522A (en) * 2012-07-27 2014-02-06 Fujitsu Ltd Transmitter, communication device, data transmission program and data transmission method
CN104396234A (en) * 2012-05-29 2015-03-04 高通股份有限公司 Video transmission and reconstruction
WO2018042817A1 (en) * 2016-08-29 2018-03-08 ソニーセミコンダクタソリューションズ株式会社 Imaging apparatus
JP2019134368A (en) * 2018-02-01 2019-08-08 富士通株式会社 Transfer apparatus and transfer method
US10395436B1 (en) 2018-03-13 2019-08-27 Perfect Corp. Systems and methods for virtual application of makeup effects with adjustable orientation view
JP2019146118A (en) * 2018-02-23 2019-08-29 沖電気工業株式会社 Communication device, communication method, communication program, and communication system
WO2021090741A1 (en) * 2019-11-08 2021-05-14 株式会社資生堂 Information processing system, information processing method, information processing device, and program
US20220377351A1 (en) * 2019-08-23 2022-11-24 Mitsubishi Electric Corporation Image transmission device, image reception device and computer readable medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004506996A (en) * 2000-08-22 2004-03-04 バーチャルメディア カンパニー リミテッド Apparatus and method for generating synthetic face image based on form information of face image
JP2004094917A (en) * 2002-07-08 2004-03-25 Toshiba Corp Virtual makeup device and method therefor
JP2004166313A (en) * 2002-11-21 2004-06-10 Nariyuki Motoi Composite image providing system
JP2006048393A (en) * 2004-08-05 2006-02-16 Nikon Corp Makeup simulation system and makeup simulation program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004506996A (en) * 2000-08-22 2004-03-04 バーチャルメディア カンパニー リミテッド Apparatus and method for generating synthetic face image based on form information of face image
JP2004094917A (en) * 2002-07-08 2004-03-25 Toshiba Corp Virtual makeup device and method therefor
JP2004166313A (en) * 2002-11-21 2004-06-10 Nariyuki Motoi Composite image providing system
JP2006048393A (en) * 2004-08-05 2006-02-16 Nikon Corp Makeup simulation system and makeup simulation program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104396234A (en) * 2012-05-29 2015-03-04 高通股份有限公司 Video transmission and reconstruction
JP2015521454A (en) * 2012-05-29 2015-07-27 クゥアルコム・インコーポレイテッドQualcomm Incorporated Video transmission and reconfiguration
US9813666B2 (en) 2012-05-29 2017-11-07 Qualcomm Incorporated Video transmission and reconstruction
JP2014027522A (en) * 2012-07-27 2014-02-06 Fujitsu Ltd Transmitter, communication device, data transmission program and data transmission method
WO2018042817A1 (en) * 2016-08-29 2018-03-08 ソニーセミコンダクタソリューションズ株式会社 Imaging apparatus
JP2019134368A (en) * 2018-02-01 2019-08-08 富士通株式会社 Transfer apparatus and transfer method
JP2019146118A (en) * 2018-02-23 2019-08-29 沖電気工業株式会社 Communication device, communication method, communication program, and communication system
JP7035613B2 (en) 2018-02-23 2022-03-15 沖電気工業株式会社 Communication devices, communication methods, communication programs and communication systems
US10395436B1 (en) 2018-03-13 2019-08-27 Perfect Corp. Systems and methods for virtual application of makeup effects with adjustable orientation view
US20220377351A1 (en) * 2019-08-23 2022-11-24 Mitsubishi Electric Corporation Image transmission device, image reception device and computer readable medium
US11671607B2 (en) * 2019-08-23 2023-06-06 Mitsubishi Electric Corporation Image transmission device, image reception device and computer readable medium
WO2021090741A1 (en) * 2019-11-08 2021-05-14 株式会社資生堂 Information processing system, information processing method, information processing device, and program

Similar Documents

Publication Publication Date Title
JP2011228936A (en) Moving image transmission system, transmitter, receiver, moving image management device, transmission program, reception program, and moving image management program
CN109952759B (en) Improved method and system for video conferencing with HMD
WO2018153267A1 (en) Group video session method and network device
WO2015090147A1 (en) Virtual video call method and terminal
US8767030B2 (en) System and method for a grooming mirror in a portable electronic device with a user-facing camera
US9210372B2 (en) Communication method and device for video simulation image
US7508413B2 (en) Video conference data transmission device and data transmission method adapted for small display of mobile terminals
CN116648729A (en) Head portrait display device, head portrait generation device, and program
JP2014090387A (en) Information processor, conference system and program
CN116320263A (en) Image processing apparatus, camera apparatus, and image processing method
US11741616B2 (en) Expression transfer across telecommunications networks
KR20160135652A (en) Image processing for Head mounted display devices
KR102382521B1 (en) User device, call relay server and method for enabling video call with avatar
CN109740476A (en) Instant communication method, device and server
JP2020095611A (en) Information processing unit, system, control method of information processing unit, and program
JP2020064426A (en) Communication system and program
JP5813542B2 (en) Image communication system, AR (Augmented Reality) video generation device, and program
WO2020056694A1 (en) Augmented reality communication method and electronic devices
JP5726421B2 (en) Portable terminal
CN109039851B (en) Interactive data processing method and device, computer equipment and storage medium
KR20120037712A (en) Imaginary beauty experience service system and method
KR20110123907A (en) Method for providing contents and internet protocol television system thereof
JP2020115299A (en) Virtual space information processing device, method and program
CN112911191B (en) Video call quality adjusting method and device, electronic equipment and storage medium
KR101630018B1 (en) Photographing apparatus and control method therof, group image managing system communicating the apparatus and control method therof, and recording medium for recording program for executing the control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140610