JP7409172B2 - image generation system - Google Patents

image generation system Download PDF

Info

Publication number
JP7409172B2
JP7409172B2 JP2020043322A JP2020043322A JP7409172B2 JP 7409172 B2 JP7409172 B2 JP 7409172B2 JP 2020043322 A JP2020043322 A JP 2020043322A JP 2020043322 A JP2020043322 A JP 2020043322A JP 7409172 B2 JP7409172 B2 JP 7409172B2
Authority
JP
Japan
Prior art keywords
image
mouth
user
video data
nose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020043322A
Other languages
Japanese (ja)
Other versions
JP2021144529A (en
Inventor
賢人 渡邊
大輔 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2020043322A priority Critical patent/JP7409172B2/en
Publication of JP2021144529A publication Critical patent/JP2021144529A/en
Application granted granted Critical
Publication of JP7409172B2 publication Critical patent/JP7409172B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像生成システムに関する。 The present invention relates to an image generation system.

デジタルカメラやスマートフォン等のカメラには、撮影画像の中にある人間の顔を認識する顔認識システムが搭載されている。例えば、顔認識システムは、顔情報のデータベースと、画面内にある顔と思われる物体を照合し、眉、目、鼻、口といったパーツと輪郭の位置関係からその物体が顔なのかどうかを判断している。 Cameras such as digital cameras and smartphones are equipped with facial recognition systems that recognize human faces in captured images. For example, a facial recognition system compares a facial information database with an object that appears to be a face on the screen, and determines whether the object is a face based on the positional relationship between parts such as eyebrows, eyes, nose, and mouth, and the outline. are doing.

従来、顔認識システムは、撮影時に顔を認識して顔に焦点を合わせる処理や、表情を認識して笑顔になった時にシャッターを切る処理などに活用されていた。 Traditionally, facial recognition systems have been used to recognize faces and focus on them when taking pictures, or to recognize facial expressions and release the shutter when a person smiles.

このような顔認識の機能を用いて、面白みのある画像を作成することが求められている。 There is a need to create interesting images using such face recognition functions.

特開2018-68470号公報JP2018-68470A 特開2004-46591号公報Japanese Patent Application Publication No. 2004-46591

本発明は、被写体を撮影し、面白みのある画像を生成できる画像生成システムを提供することを課題とする。 An object of the present invention is to provide an image generation system that can photograph a subject and generate interesting images.

本発明による画像生成システムは、ユーザの顔を動画撮影した動画データを取得する画像取得部と、前記動画データにおいて前記ユーザの口又は鼻が物体により隠れたタイミングで前記動画データから静止画を切り出す切出部と、を備えるものである。 The image generation system according to the present invention includes an image acquisition unit that acquires video data of a user's face, and cuts out a still image from the video data at a timing when the user's mouth or nose is hidden by an object in the video data. A cutout portion.

本発明の一態様では、前記動画データに含まれる複数のフレーム画像の各々について、前記フレーム画像内の前記ユーザの口及び鼻の位置の情報を含む解析結果を取得する解析結果取得部をさらに備え、前記切出部は、前記解析結果を参照し、前記口及び鼻の位置の変化に基づいて、前記タイミングを決定する。 One aspect of the present invention further includes an analysis result acquisition unit that acquires, for each of the plurality of frame images included in the video data, an analysis result including information on the positions of the user's mouth and nose in the frame image. , the cutting section refers to the analysis result and determines the timing based on changes in the positions of the mouth and nose.

本発明の一態様では、前記解析結果は、前記ユーザの口の両端の位置の情報を含み、前記切出部は、鼻から口の両端までの距離、及び口の両端の間の距離の変化に基づいて、前記タイミングを決定する。 In one aspect of the present invention, the analysis result includes information on the positions of both ends of the user's mouth, and the cutout portion includes a distance from the nose to both ends of the mouth, and a change in the distance between both ends of the mouth. The timing is determined based on.

本発明の一態様では、前記解析結果は、前記ユーザの目の位置の情報を含み、前記切出部は、さらに、前記目の位置の変化に基づくタイミングで前記動画データから静止画を切り出す。 In one aspect of the present invention, the analysis result includes information on the position of the user's eyes, and the cutting unit further cuts out a still image from the video data at a timing based on a change in the position of the eyes.

本発明の一態様では、前記動画データは、ガムを膨らませる前記ユーザを動画撮影したものであり、前記解析結果は、前記フレーム画像内のガム領域の位置情報を含み、前記切出部は、前記ガム領域の位置情報からガム領域の大きさを算出し、算出した値が所定値以上となったタイミングで前記動画データからさらに静止画を切り出す。 In one aspect of the present invention, the video data is a video of the user inflating gum, the analysis result includes position information of a gum region within the frame image, and the cutout section includes: The size of the gum region is calculated from the position information of the gum region, and a still image is further cut out from the video data at the timing when the calculated value becomes equal to or greater than a predetermined value.

本発明によれば、被写体を撮影し、面白みのある画像を生成できる。 According to the present invention, it is possible to photograph a subject and generate an interesting image.

本発明の実施形態に係る画像生成システムの概略図である。1 is a schematic diagram of an image generation system according to an embodiment of the present invention. 図2a~図2fは画像の切り出しタイミングの例を示す図である。FIGS. 2a to 2f are diagrams showing examples of image cutout timing. 画像生成装置のブロック図である。FIG. 2 is a block diagram of an image generation device. 画像処理プログラムによる機能のブロック図である。FIG. 2 is a block diagram of functions provided by an image processing program. 鼻と口の座標を示す図である。FIG. 3 is a diagram showing the coordinates of a nose and a mouth. 膨らんだガムの大きさの算出例を示す図である。It is a figure which shows the calculation example of the size of swollen gum. 別の実施形態に係る画像生成システムの概略図である。FIG. 2 is a schematic diagram of an image generation system according to another embodiment.

以下、本発明の実施の形態を図面に基づいて説明する。 Embodiments of the present invention will be described below based on the drawings.

図1に示すように、本発明の実施形態に係る画像生成システムは、画像生成装置1と解析サーバ2とを備え、ユーザ5を動画撮影し、動画から面白い瞬間で画像(静止画)を切り出し、面白みのある画像を生成する。 As shown in FIG. 1, the image generation system according to the embodiment of the present invention includes an image generation device 1 and an analysis server 2, and captures a video of a user 5, and cuts out images (still images) at interesting moments from the video. , generates interesting images.

例えば、この画像生成システムをチューインガム(風船ガム)のキャンペーンで使用し、ユーザ5(顧客)に新製品のガムを配布して試食してもらい、ガムを膨らませる様子の動画を画像生成装置1で撮影する。画像生成装置1は、1又は複数のタイミングで動画から画像を切り出す。 For example, this image generation system is used in a campaign for chewing gum (bubble gum), and the user 5 (customer) is given a new product of gum and asked to try it, and the image generation device 1 creates a video of the process of blowing up the gum. Take a photo. The image generation device 1 cuts out images from a video at one or more timings.

図2aは、ガムを膨らませる前の状態を示す。図2bに示すように、ガム7が膨らんで口が隠れたタイミングで1枚目の画像を切り出す。ガム7が大きく膨らみ、図2cに示すように、口及び鼻が隠れたタイミングで2枚目の画像を切り出す。 Figure 2a shows the state before the gum is expanded. As shown in FIG. 2b, the first image is cut out at the timing when the gum 7 expands and the mouth is hidden. The second image is cut out at the timing when the gum 7 expands to a large extent and the mouth and nose are hidden, as shown in FIG. 2c.

さらにガム7が大きく膨らみ、図2dに示すように、膨らんだガム7が所定サイズに達したタイミングで3枚目の画像を切り出す。次に、図2eに示すように、ガム7が破裂して形状が大きく変化したタイミングで4枚目の画像を切り出す。続いて、図2fに示すように、ガム7の破裂に驚き、ユーザが目をつぶるなどして表情が変化したタイミングで5枚目の画像を切り出す。 The gum 7 further swells to a large extent, and the third image is cut out at the timing when the swollen gum 7 reaches a predetermined size, as shown in FIG. 2d. Next, as shown in FIG. 2e, a fourth image is cut out at the timing when the gum 7 bursts and its shape changes significantly. Subsequently, as shown in FIG. 2f, the fifth image is cut out at the timing when the user's facial expression changes, such as when the user closes his eyes in surprise at the bursting of the gum 7.

このように、画像生成装置1は、ユーザ5を撮影した動画から面白い瞬間で画像を切り出し、面白みのある画像を生成する。切り出した画像は、ユーザ5のメールアドレス宛にデータ送信したり、キャンペーンサイトに投稿したり、プリント出力してプリント物Pをユーザ5に渡したりする。 In this way, the image generation device 1 cuts out images at interesting moments from the video of the user 5, and generates interesting images. The cut out image is sent as data to the user 5's e-mail address, posted on a campaign site, or printed out and given to the user 5 as a printout P.

図3に示すように、画像生成装置1は、演算制御部10、記憶部11、通信部12、撮影部13、タッチパネル14及びプリンタ15を備える。例えば、演算制御部10はCPUであり、記憶部11はRAM、HDD、SSD等である。撮影部13はデジタルカメラであり、ユーザ5を動画撮影し、動画データを生成する。画像生成装置1は、演算制御部10、記憶部11及び通信部12を有するコンピュータと、撮影部13と、タッチパネル14と、プリンタ15とが1つの筐体に収容されたものである。 As shown in FIG. 3, the image generation device 1 includes an arithmetic control section 10, a storage section 11, a communication section 12, a photographing section 13, a touch panel 14, and a printer 15. For example, the calculation control unit 10 is a CPU, and the storage unit 11 is a RAM, HDD, SSD, etc. The photographing unit 13 is a digital camera, and photographs a moving image of the user 5 to generate moving image data. The image generation device 1 includes a computer having a calculation control section 10, a storage section 11, and a communication section 12, a photographing section 13, a touch panel 14, and a printer 15 housed in one housing.

記憶部11には画像処理プログラムが格納されている。演算制御部10が画像処理プログラムを実行することで、図4に示すように、画像取得部101、画像送信部102、解析結果取得部103、切出部104、表示処理部105及びプリント処理部106の機能が実現される。 The storage unit 11 stores an image processing program. When the arithmetic control unit 10 executes the image processing program, as shown in FIG. 106 functions are realized.

画像取得部101は、撮影部13から、ユーザ5を撮影した動画データを取得する。動画データは記憶部11に格納される。 The image acquisition unit 101 acquires video data of the user 5 from the photography unit 13 . The video data is stored in the storage unit 11.

画像送信部102は、通信部12を用いて、動画データを解析サーバ2へ送信する。 The image transmitting section 102 transmits the video data to the analysis server 2 using the communication section 12 .

解析サーバ2は、画像生成装置1から受信した動画データの画像解析を行うコンピュータである。画像解析では、撮影画像に写っているユーザ5の顔の目、鼻、口の位置を検出する。目の位置は両目(右目及び左目)の位置を含む。口の位置は、口の両端(右端及び左端)の位置を含む。また、解析サーバ2には、膨らんだガム7の色が事前に登録されており、解析サーバ2は、撮影画像内のガム領域を検出する。 The analysis server 2 is a computer that performs image analysis of video data received from the image generation device 1. In the image analysis, the positions of the eyes, nose, and mouth of the user's 5 face in the captured image are detected. The position of the eyes includes the positions of both eyes (right eye and left eye). The position of the mouth includes the positions of both ends (right end and left end) of the mouth. Furthermore, the color of the swollen gum 7 is registered in advance in the analysis server 2, and the analysis server 2 detects the gum region within the photographed image.

ガム7が膨らむことで口や鼻が隠れた場合、解析サーバ2は、ガム7で隠れた口や鼻について、不明(検出不能)と判定する場合と、目や耳など他のパーツの位置を用いて口や鼻の位置を推定する場合とがある。 If the mouth or nose is hidden by the expanding gum 7, the analysis server 2 determines whether the mouth or nose hidden by the gum 7 is unknown (undetectable) or the position of other parts such as eyes and ears. In some cases, the position of the mouth and nose can be estimated using this method.

解析サーバ2は、動画データを構成する複数のフレーム画像の各々について画像解析を行い、目、鼻、口の位置の検出や、ガム領域の検出を行い、解析結果を画像生成装置1へ送信する。 The analysis server 2 performs image analysis on each of the plurality of frame images constituting the video data, detects the positions of the eyes, nose, and mouth, and detects the gum area, and sends the analysis results to the image generation device 1. .

画像生成装置1の解析結果取得部103は、通信部12を用いて、解析サーバ2から解析結果を取得する。解析結果には、動画データの各フレーム画像について、目、鼻、口の位置情報やガム領域の位置情報が含まれる。 The analysis result acquisition unit 103 of the image generation device 1 uses the communication unit 12 to acquire the analysis result from the analysis server 2. The analysis results include position information of the eyes, nose, and mouth and position information of the gum area for each frame image of the video data.

切出部104は、解析サーバ2による解析結果を用いて、動画から画像を切り出す。例えば、解析サーバ2が、口や鼻がガムで隠れた際に不明と判定する場合、切出部104は、解析結果で口が不明となったタイミングで動画から画像を切り出す。これにより、図2bに示すような画像が生成される。また、切出部104は、解析結果で鼻が不明となったタイミングで動画から画像を切り出す。これにより、図2cに示すような画像が生成される。 The cutting unit 104 cuts out images from the video using the analysis results by the analysis server 2. For example, if the analysis server 2 determines that the mouth or nose is unknown when it is hidden by gum, the cutting unit 104 cuts out an image from the video at the timing when the mouth becomes unclear as a result of the analysis. This produces an image as shown in Figure 2b. Furthermore, the cutting unit 104 cuts out an image from the video at the timing when the nose becomes unclear as a result of the analysis. This produces an image as shown in Figure 2c.

解析サーバ2が、ガムで隠れた口や鼻の位置を推定する場合、解析結果には口や鼻の位置が常に含まれている。切出部104は、鼻から口の両端までの距離、及び口の両端の間の距離を用いて、口や鼻がガムで隠れたか否か判断し、画像を切り出すタイミングを決定する。 When the analysis server 2 estimates the position of the mouth or nose hidden by gum, the analysis result always includes the position of the mouth or nose. The cutting unit 104 uses the distance from the nose to both ends of the mouth and the distance between both ends of the mouth to determine whether the mouth and nose are hidden by gum, and determines the timing to cut out the image.

例えば、解析結果には、図5に示すように、鼻の座標(X1、Y1)、口の両端の座標(X2、Y2)(X3、Y3)が含まれている。口が隠れた場合、口の両端の座標は推定値となり、座標が変動する。また、鼻が隠れた場合、鼻の座標は推定値となり、座標が変動する。 For example, as shown in FIG. 5, the analysis result includes the coordinates of the nose (X1, Y1) and the coordinates of both ends of the mouth (X2, Y2) (X3, Y3). When the mouth is hidden, the coordinates of both ends of the mouth are estimated values, and the coordinates change. Furthermore, when the nose is hidden, the coordinates of the nose become estimated values and the coordinates change.

切出部104は、鼻から口の両端までの距離、及び口の両端の間の距離として、X方向、Y方向にそれぞれ以下の評価値Ex、Eyを算出する。
Ex=(X1-X2)+(X2-X3)+(X3-X1)
Ey=(Y1-Y2)+(Y2-Y3)+(Y3-Y1)
The cutting unit 104 calculates the following evaluation values Ex and Ey in the X direction and the Y direction, respectively, as the distance from the nose to both ends of the mouth and the distance between both ends of the mouth.
Ex=(X1-X2) 2 +(X2-X3) 2 +(X3-X1) 2
Ey=(Y1-Y2) 2 +(Y2-Y3) 2 +(Y3-Y1) 2

切出部104は、動画データの各フレーム画像について、時系列順に、解析結果を用いて評価値Ex、Eyを算出する。切出部104は、動画データの初期のフレーム画像、すなわちガムを膨らます前の、鼻や口が見えているタイミングでの画像の評価値Ex、Eyを基準値に設定する。 The cutting unit 104 calculates evaluation values Ex and Ey for each frame image of the video data in chronological order using the analysis results. The cutting unit 104 sets evaluation values Ex and Ey of an initial frame image of the video data, that is, an image at a timing when the nose and mouth are visible before the gum is inflated, as reference values.

切出部104は、算出した評価値Ex、Eyと基準値との差異が、X方向、Y方向の両方で所定の第1閾値を超えたときに、口が隠れたと判断し、このタイミングで動画から画像を切り出す。これにより、図2bに示すような画像が生成される。 The extraction unit 104 determines that the mouth is hidden when the difference between the calculated evaluation values Ex, Ey and the reference value exceeds a predetermined first threshold in both the X direction and the Y direction, and at this timing, the extraction unit 104 determines that the mouth is hidden. Extract images from videos. This produces an image as shown in Figure 2b.

また、切出部104は、算出した評価値Ex、Eyと基準値との差異が、X方向、Y方向の両方で所定の第2閾値(第2閾値>第1閾値)を超えたときに、口及び鼻が隠れたと判断し、このタイミングで動画から画像を切り出す。これにより、図2cに示すような画像が生成される。 Furthermore, when the difference between the calculated evaluation values Ex, Ey and the reference value exceeds a predetermined second threshold (second threshold>first threshold) in both the X direction and the Y direction, the extraction unit 104 , it is determined that the mouth and nose are hidden, and the image is cut out from the video at this timing. This produces an image as shown in Figure 2c.

切出部104は、解析結果に含まれるガム領域の位置情報から、ガム領域の大きさを算出する。例えば、解析結果には、ガム領域の位置情報として、ガム領域のX座標の最大値及び最小値、Y座標の最大値及び最小値が含まれる。切出部104は、ガム領域の座標を用いて、図6に示すように、ガム領域のX方向の寸法Lx、Y方向の寸法Lyを算出し、LxとLyを乗じた値(Lx×Ly)をガム領域の大きさとして算出する。 The cutting unit 104 calculates the size of the gum region from the position information of the gum region included in the analysis result. For example, the analysis result includes the maximum and minimum values of the X coordinate and the maximum and minimum values of the Y coordinate of the gum region as position information of the gum region. Using the coordinates of the gum region, the cutout section 104 calculates the dimension Lx in the X direction and the dimension Ly in the Y direction of the gum region, as shown in FIG. ) is calculated as the size of the gum region.

切出部104は、算出したガム領域の大きさが所定の閾値以上となったタイミングで動画から画像を切り出す。これにより、図2dに示すような画像が生成される。 The cutting unit 104 cuts out an image from the video at a timing when the calculated size of the gum region becomes equal to or larger than a predetermined threshold. This produces an image as shown in Figure 2d.

切出部104は、ガム領域の位置情報が一定時間(ごく短時間)の間に所定量以上変化した場合、膨らんでいたガムが破裂したと判断し、このタイミングで動画から画像を切り出す。これにより、図2eに示すような画像が生成される。 If the positional information of the gum area changes by a predetermined amount or more within a certain period of time (a very short time), the cutting unit 104 determines that the inflated gum has burst, and cuts out an image from the video at this timing. This produces an image as shown in Figure 2e.

切出部104は、目の座標の変化量から目つぶりを判断し、画像を切り出すタイミングを決定する。例えば、解析結果には、右目の座標(XeyeRt、YeyeRt)と左目の座標(XeyeLt、YeyeLt)が含まれている。切出部104は、動画データの出だし(初期)のフレーム画像、すなわちガムを膨らます前の画像の解析結果に含まれる右目の座標(XeyeR0、YeyeR0)、左目の座標(XeyeL0、YeyeL0)を基準値に設定する。 The cropping unit 104 determines whether the eyes are closed based on the amount of change in the coordinates of the eyes, and determines the timing to crop the image. For example, the analysis result includes the coordinates of the right eye (X eyeRt , Y eyeRt ) and the coordinates of the left eye (X eyeLt , Y eyeLt ). The extraction unit 104 extracts the coordinates of the right eye (X eyeR0 , Y eyeR0 ) and the coordinates of the left eye (X eyeL0 , Y eyeL0 ) included in the analysis result of the starting (initial) frame image of the video data, that is , the image before blowing the gum. ) as the reference value.

そして、切出部104は、以下の式で目の座標の変化量を算出し、算出した変化量が所定の閾値を超えると、目つぶりしたと判断し、このタイミングで動画から画像を切り出す。これにより、図2fに示すような画像が生成される。
目の座標の変化量=(XeyeRt-XeyeR0+(YeyeRt-YeyeR0
Then, the cutting unit 104 calculates the amount of change in the coordinates of the eyes using the following formula, and when the calculated amount of change exceeds a predetermined threshold, it determines that the eyes are closed, and cuts out an image from the video at this timing. This produces an image as shown in Figure 2f.
Amount of change in eye coordinates = (X eyeRt - X eyeR0 ) 2 + (Y eyeRt - Y eyeR0 ) 2

上記の式は右目の座標の変化量を算出するものであるが、左目の座標を用いて変化量を算出してもよいし、右目及び左目の両方の座標を用いて変化量を算出してもよい。 The above formula calculates the amount of change in the coordinates of the right eye, but the amount of change may be calculated using the coordinates of the left eye, or the amount of change may be calculated using the coordinates of both the right and left eyes. Good too.

表示処理部105は、切出部104が切り出した画像をタッチパネル14に表示する。 The display processing unit 105 displays the image cut out by the cutting unit 104 on the touch panel 14.

プリント処理部106は、切出部104が切り出した画像をプリンタ15からプリント出力させる。タッチパネル14に表示された複数の画像のうち、ユーザ5がタッチパネル14を操作して選択した画像をプリント出力してもよい。 The print processing unit 106 causes the printer 15 to print out the image cut out by the cutting unit 104. Among the plurality of images displayed on the touch panel 14, an image selected by the user 5 by operating the touch panel 14 may be printed out.

通信部12は、切出部104により切り出された画像をユーザ5のメールアドレス宛にデータ送信できる。また、通信部12は、切出部104により切り出された画像をキャンペーンサイトに投稿できる。 The communication unit 12 can transmit data of the image cut out by the cutout unit 104 to the email address of the user 5. Furthermore, the communication unit 12 can post the image cut out by the cutout unit 104 to the campaign site.

このように、本実施形態によれば、動画から面白い瞬間で画像を切り出し、面白みのある画像を生成できる。 In this way, according to the present embodiment, images can be cut out at interesting moments from a video to generate interesting images.

上記実施形態では、画像生成装置1が動画の撮影、及び画像の切り出しを行う例について説明したが、図7に示すように、動画の撮影をユーザ5が所有するスマートフォン等のユーザ端末3で行ってもよい。ユーザ端末3は、撮影した動画をサーバ4へ送信する。 In the above embodiment, an example has been described in which the image generation device 1 shoots a video and cuts out an image, but as shown in FIG. 7, a user terminal 3 such as a smartphone owned by a user 5 shoots a video. You can. The user terminal 3 transmits the captured video to the server 4.

サーバ4は動画を保存すると共に、動画を解析サーバ2へ送信する。サーバ4は、解析サーバ2から解析結果を受信すると、切出部104と同様の処理を行い、動画から画像を切り出す。サーバ4は、切り出した画像をユーザ端末3へ送信する。動画から画像を切り出す処理は、ユーザ端末3で行ってもよい。 The server 4 saves the video and also sends the video to the analysis server 2. When the server 4 receives the analysis result from the analysis server 2, it performs the same processing as the cutting unit 104 and cuts out an image from the video. The server 4 transmits the cut out image to the user terminal 3. The process of cutting out images from a video may be performed by the user terminal 3.

上記実施形態では、撮影画像を解析し、顔のパーツの位置を検出する解析サーバ2と、動画から画像を切り出す画像生成装置1とが異なるコンピュータである例について説明したが、1つのコンピュータが解析と切り出しを行ってもよい。 In the above embodiment, an example has been described in which the analysis server 2 that analyzes a photographed image and detects the positions of facial parts and the image generation device 1 that cuts out an image from a video are different computers. You can also cut out.

上記実施形態では、ガムを膨らませる様子を撮影する例について説明したが、風船など他の物体を膨らませるものであってもよい。また、カメラに向かって面白い表情をし、顔の各パーツの座標の変化から表情が変わるタイミングを決定し、そのタイミングで動画から画像を切り出してもよい。 In the embodiment described above, an example was described in which the state of inflating gum is photographed, but it may also be possible to inflate another object such as a balloon. Alternatively, the user may make an interesting expression toward the camera, determine the timing at which the expression changes based on changes in the coordinates of each part of the face, and then cut out the image from the video at that timing.

上記実施形態では、撮影部13がユーザ5を動画撮影する例について説明したが、静止画を高速連写するものであってもよい。 In the embodiment described above, an example has been described in which the photographing unit 13 photographs a moving image of the user 5, but it may also continuously photograph still images at high speed.

本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-mentioned embodiments as they are, and in the implementation stage, the constituent elements can be modified and embodied without departing from the spirit of the invention. Moreover, various inventions can be formed by appropriately combining the plurality of components disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiments. Furthermore, components of different embodiments may be combined as appropriate.

1 画像生成装置
2 解析サーバ
3 ユーザ端末
4 サーバ
5 ユーザ
1 Image generation device 2 Analysis server 3 User terminal 4 Server 5 User

Claims (5)

ユーザの顔を動画撮影した動画データを取得する画像取得部と、
前記動画データにおいて前記ユーザの口又は鼻が物体により隠れたタイミングで前記動画データから静止画を切り出す切出部と、
を備える画像生成システム。
an image acquisition unit that acquires video data of a user's face;
a cutting unit that cuts out a still image from the video data at a timing when the user's mouth or nose is hidden by an object in the video data;
An image generation system comprising:
前記動画データに含まれる複数のフレーム画像の各々について、前記フレーム画像内の前記ユーザの口及び鼻の位置の情報を含む解析結果を取得する解析結果取得部をさらに備え、
前記切出部は、前記解析結果を参照し、前記口及び鼻の位置の変化に基づいて、前記タイミングを決定することを特徴とする請求項1に記載の画像生成システム。
Further comprising an analysis result acquisition unit that acquires, for each of the plurality of frame images included in the video data, an analysis result including information on the positions of the user's mouth and nose in the frame image,
The image generation system according to claim 1, wherein the cutting section refers to the analysis result and determines the timing based on changes in the positions of the mouth and nose.
前記解析結果は、前記ユーザの口の両端の位置の情報を含み、
前記切出部は、鼻から口の両端までの距離、及び口の両端の間の距離の変化に基づいて、前記タイミングを決定することを特徴とする請求項2に記載の画像生成システム。
The analysis result includes information on the positions of both ends of the user's mouth,
3. The image generation system according to claim 2, wherein the cutting section determines the timing based on a distance from the nose to both ends of the mouth and a change in the distance between both ends of the mouth.
前記解析結果は、前記ユーザの目の位置の情報を含み、
前記切出部は、さらに、前記目の位置の変化に基づくタイミングで前記動画データから静止画を切り出すことを特徴とする請求項2又は3に記載の画像生成システム。
The analysis result includes information on the position of the user's eyes,
The image generation system according to claim 2 or 3, wherein the cutting unit further cuts out a still image from the video data at a timing based on a change in the position of the eye.
前記動画データは、ガムを膨らませる前記ユーザを動画撮影したものであり、
前記解析結果は、前記フレーム画像内のガム領域の位置情報を含み、
前記切出部は、前記ガム領域の位置情報からガム領域の大きさを算出し、算出した値が所定値以上となったタイミングで前記動画データからさらに静止画を切り出すことを特徴とする請求項2乃至4のいずれかに記載の画像生成システム。
The video data is a video of the user inflating gum;
The analysis result includes position information of a gum region within the frame image,
The cutting unit calculates the size of the gum region from the position information of the gum region, and further cuts out a still image from the video data at a timing when the calculated value becomes a predetermined value or more. 5. The image generation system according to any one of 2 to 4.
JP2020043322A 2020-03-12 2020-03-12 image generation system Active JP7409172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020043322A JP7409172B2 (en) 2020-03-12 2020-03-12 image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020043322A JP7409172B2 (en) 2020-03-12 2020-03-12 image generation system

Publications (2)

Publication Number Publication Date
JP2021144529A JP2021144529A (en) 2021-09-24
JP7409172B2 true JP7409172B2 (en) 2024-01-09

Family

ID=77766853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020043322A Active JP7409172B2 (en) 2020-03-12 2020-03-12 image generation system

Country Status (1)

Country Link
JP (1) JP7409172B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004158013A (en) 2002-11-04 2004-06-03 Samsung Electronics Co Ltd Face detection system and method, and face image authentication method
JP2010171550A (en) 2009-01-20 2010-08-05 Canon Inc Image recorder
JP2012181629A (en) 2011-02-28 2012-09-20 Sogo Keibi Hosho Co Ltd Face detection method, face detection device, and program
JP2015076767A (en) 2013-10-09 2015-04-20 株式会社ニコン Imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004158013A (en) 2002-11-04 2004-06-03 Samsung Electronics Co Ltd Face detection system and method, and face image authentication method
JP2010171550A (en) 2009-01-20 2010-08-05 Canon Inc Image recorder
JP2012181629A (en) 2011-02-28 2012-09-20 Sogo Keibi Hosho Co Ltd Face detection method, face detection device, and program
JP2015076767A (en) 2013-10-09 2015-04-20 株式会社ニコン Imaging apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
市川 清人,顔パーツを利用した隠れを含む顔の検出手法,画像電子学会誌 ,日本,画像電子学会,2008年07月25日,第37巻 第4号,P.419-427

Also Published As

Publication number Publication date
JP2021144529A (en) 2021-09-24

Similar Documents

Publication Publication Date Title
EP3582187B1 (en) Face image processing method and apparatus
US10360715B2 (en) Storage medium, information-processing device, information-processing system, and avatar generating method
US10455148B2 (en) Image capturing device to capture image of a subject based on a communication process
JP6809226B2 (en) Biometric device, biometric detection method, and biometric detection program
CN106161939B (en) Photo shooting method and terminal
US8131024B2 (en) Apparatus and method of image capture for facial recognition
US20170039774A1 (en) Augmented Reality Communications
US10379610B2 (en) Information processing device and information processing method
KR20170031733A (en) Technologies for adjusting a perspective of a captured image for display
JP2004195243A5 (en)
JP7000050B2 (en) Imaging control device and its control method
JP6096654B2 (en) Image recording method, electronic device, and computer program
KR102364929B1 (en) Electronic device, sever, and system for tracking skin changes
CN111667588A (en) Person image processing method, person image processing device, AR device and storage medium
KR101672691B1 (en) Method and apparatus for generating emoticon in social network service platform
JP2006330464A (en) Attendance status discriminating device, method, and program
JP7409172B2 (en) image generation system
TWI680005B (en) Movement tracking method and movement tracking system
TWI466070B (en) Method for searching eyes, and eyes condition determining device and eyes searching device using the method
JP2020177605A (en) Image processing device
CN116567349A (en) Video display method and device based on multiple cameras and storage medium
CN113176827B (en) AR interaction method and system based on expressions, electronic device and storage medium
JP2012244226A (en) Imaging device, image composition method, and program
EP2827589A1 (en) Display device and device for adapting an information
CN113805824B (en) Electronic device and method for displaying image on display apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R150 Certificate of patent or registration of utility model

Ref document number: 7409172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150