JP7409172B2 - image generation system - Google Patents
image generation system Download PDFInfo
- Publication number
- JP7409172B2 JP7409172B2 JP2020043322A JP2020043322A JP7409172B2 JP 7409172 B2 JP7409172 B2 JP 7409172B2 JP 2020043322 A JP2020043322 A JP 2020043322A JP 2020043322 A JP2020043322 A JP 2020043322A JP 7409172 B2 JP7409172 B2 JP 7409172B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- mouth
- user
- video data
- nose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 claims description 42
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 238000007664 blowing Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 101000801619 Homo sapiens Long-chain-fatty-acid-CoA ligase ACSBG1 Proteins 0.000 description 1
- 102100033564 Long-chain-fatty-acid-CoA ligase ACSBG1 Human genes 0.000 description 1
- 235000010634 bubble gum Nutrition 0.000 description 1
- 230000009172 bursting Effects 0.000 description 1
- 235000015218 chewing gum Nutrition 0.000 description 1
- 229940112822 chewing gum Drugs 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、画像生成システムに関する。 The present invention relates to an image generation system.
デジタルカメラやスマートフォン等のカメラには、撮影画像の中にある人間の顔を認識する顔認識システムが搭載されている。例えば、顔認識システムは、顔情報のデータベースと、画面内にある顔と思われる物体を照合し、眉、目、鼻、口といったパーツと輪郭の位置関係からその物体が顔なのかどうかを判断している。 Cameras such as digital cameras and smartphones are equipped with facial recognition systems that recognize human faces in captured images. For example, a facial recognition system compares a facial information database with an object that appears to be a face on the screen, and determines whether the object is a face based on the positional relationship between parts such as eyebrows, eyes, nose, and mouth, and the outline. are doing.
従来、顔認識システムは、撮影時に顔を認識して顔に焦点を合わせる処理や、表情を認識して笑顔になった時にシャッターを切る処理などに活用されていた。 Traditionally, facial recognition systems have been used to recognize faces and focus on them when taking pictures, or to recognize facial expressions and release the shutter when a person smiles.
このような顔認識の機能を用いて、面白みのある画像を作成することが求められている。 There is a need to create interesting images using such face recognition functions.
本発明は、被写体を撮影し、面白みのある画像を生成できる画像生成システムを提供することを課題とする。 An object of the present invention is to provide an image generation system that can photograph a subject and generate interesting images.
本発明による画像生成システムは、ユーザの顔を動画撮影した動画データを取得する画像取得部と、前記動画データにおいて前記ユーザの口又は鼻が物体により隠れたタイミングで前記動画データから静止画を切り出す切出部と、を備えるものである。 The image generation system according to the present invention includes an image acquisition unit that acquires video data of a user's face, and cuts out a still image from the video data at a timing when the user's mouth or nose is hidden by an object in the video data. A cutout portion.
本発明の一態様では、前記動画データに含まれる複数のフレーム画像の各々について、前記フレーム画像内の前記ユーザの口及び鼻の位置の情報を含む解析結果を取得する解析結果取得部をさらに備え、前記切出部は、前記解析結果を参照し、前記口及び鼻の位置の変化に基づいて、前記タイミングを決定する。 One aspect of the present invention further includes an analysis result acquisition unit that acquires, for each of the plurality of frame images included in the video data, an analysis result including information on the positions of the user's mouth and nose in the frame image. , the cutting section refers to the analysis result and determines the timing based on changes in the positions of the mouth and nose.
本発明の一態様では、前記解析結果は、前記ユーザの口の両端の位置の情報を含み、前記切出部は、鼻から口の両端までの距離、及び口の両端の間の距離の変化に基づいて、前記タイミングを決定する。 In one aspect of the present invention, the analysis result includes information on the positions of both ends of the user's mouth, and the cutout portion includes a distance from the nose to both ends of the mouth, and a change in the distance between both ends of the mouth. The timing is determined based on.
本発明の一態様では、前記解析結果は、前記ユーザの目の位置の情報を含み、前記切出部は、さらに、前記目の位置の変化に基づくタイミングで前記動画データから静止画を切り出す。 In one aspect of the present invention, the analysis result includes information on the position of the user's eyes, and the cutting unit further cuts out a still image from the video data at a timing based on a change in the position of the eyes.
本発明の一態様では、前記動画データは、ガムを膨らませる前記ユーザを動画撮影したものであり、前記解析結果は、前記フレーム画像内のガム領域の位置情報を含み、前記切出部は、前記ガム領域の位置情報からガム領域の大きさを算出し、算出した値が所定値以上となったタイミングで前記動画データからさらに静止画を切り出す。 In one aspect of the present invention, the video data is a video of the user inflating gum, the analysis result includes position information of a gum region within the frame image, and the cutout section includes: The size of the gum region is calculated from the position information of the gum region, and a still image is further cut out from the video data at the timing when the calculated value becomes equal to or greater than a predetermined value.
本発明によれば、被写体を撮影し、面白みのある画像を生成できる。 According to the present invention, it is possible to photograph a subject and generate an interesting image.
以下、本発明の実施の形態を図面に基づいて説明する。 Embodiments of the present invention will be described below based on the drawings.
図1に示すように、本発明の実施形態に係る画像生成システムは、画像生成装置1と解析サーバ2とを備え、ユーザ5を動画撮影し、動画から面白い瞬間で画像(静止画)を切り出し、面白みのある画像を生成する。
As shown in FIG. 1, the image generation system according to the embodiment of the present invention includes an
例えば、この画像生成システムをチューインガム(風船ガム)のキャンペーンで使用し、ユーザ5(顧客)に新製品のガムを配布して試食してもらい、ガムを膨らませる様子の動画を画像生成装置1で撮影する。画像生成装置1は、1又は複数のタイミングで動画から画像を切り出す。
For example, this image generation system is used in a campaign for chewing gum (bubble gum), and the user 5 (customer) is given a new product of gum and asked to try it, and the
図2aは、ガムを膨らませる前の状態を示す。図2bに示すように、ガム7が膨らんで口が隠れたタイミングで1枚目の画像を切り出す。ガム7が大きく膨らみ、図2cに示すように、口及び鼻が隠れたタイミングで2枚目の画像を切り出す。
Figure 2a shows the state before the gum is expanded. As shown in FIG. 2b, the first image is cut out at the timing when the
さらにガム7が大きく膨らみ、図2dに示すように、膨らんだガム7が所定サイズに達したタイミングで3枚目の画像を切り出す。次に、図2eに示すように、ガム7が破裂して形状が大きく変化したタイミングで4枚目の画像を切り出す。続いて、図2fに示すように、ガム7の破裂に驚き、ユーザが目をつぶるなどして表情が変化したタイミングで5枚目の画像を切り出す。
The
このように、画像生成装置1は、ユーザ5を撮影した動画から面白い瞬間で画像を切り出し、面白みのある画像を生成する。切り出した画像は、ユーザ5のメールアドレス宛にデータ送信したり、キャンペーンサイトに投稿したり、プリント出力してプリント物Pをユーザ5に渡したりする。
In this way, the
図3に示すように、画像生成装置1は、演算制御部10、記憶部11、通信部12、撮影部13、タッチパネル14及びプリンタ15を備える。例えば、演算制御部10はCPUであり、記憶部11はRAM、HDD、SSD等である。撮影部13はデジタルカメラであり、ユーザ5を動画撮影し、動画データを生成する。画像生成装置1は、演算制御部10、記憶部11及び通信部12を有するコンピュータと、撮影部13と、タッチパネル14と、プリンタ15とが1つの筐体に収容されたものである。
As shown in FIG. 3, the
記憶部11には画像処理プログラムが格納されている。演算制御部10が画像処理プログラムを実行することで、図4に示すように、画像取得部101、画像送信部102、解析結果取得部103、切出部104、表示処理部105及びプリント処理部106の機能が実現される。
The
画像取得部101は、撮影部13から、ユーザ5を撮影した動画データを取得する。動画データは記憶部11に格納される。
The
画像送信部102は、通信部12を用いて、動画データを解析サーバ2へ送信する。
The
解析サーバ2は、画像生成装置1から受信した動画データの画像解析を行うコンピュータである。画像解析では、撮影画像に写っているユーザ5の顔の目、鼻、口の位置を検出する。目の位置は両目(右目及び左目)の位置を含む。口の位置は、口の両端(右端及び左端)の位置を含む。また、解析サーバ2には、膨らんだガム7の色が事前に登録されており、解析サーバ2は、撮影画像内のガム領域を検出する。
The
ガム7が膨らむことで口や鼻が隠れた場合、解析サーバ2は、ガム7で隠れた口や鼻について、不明(検出不能)と判定する場合と、目や耳など他のパーツの位置を用いて口や鼻の位置を推定する場合とがある。
If the mouth or nose is hidden by the expanding
解析サーバ2は、動画データを構成する複数のフレーム画像の各々について画像解析を行い、目、鼻、口の位置の検出や、ガム領域の検出を行い、解析結果を画像生成装置1へ送信する。
The
画像生成装置1の解析結果取得部103は、通信部12を用いて、解析サーバ2から解析結果を取得する。解析結果には、動画データの各フレーム画像について、目、鼻、口の位置情報やガム領域の位置情報が含まれる。
The analysis result
切出部104は、解析サーバ2による解析結果を用いて、動画から画像を切り出す。例えば、解析サーバ2が、口や鼻がガムで隠れた際に不明と判定する場合、切出部104は、解析結果で口が不明となったタイミングで動画から画像を切り出す。これにより、図2bに示すような画像が生成される。また、切出部104は、解析結果で鼻が不明となったタイミングで動画から画像を切り出す。これにより、図2cに示すような画像が生成される。
The
解析サーバ2が、ガムで隠れた口や鼻の位置を推定する場合、解析結果には口や鼻の位置が常に含まれている。切出部104は、鼻から口の両端までの距離、及び口の両端の間の距離を用いて、口や鼻がガムで隠れたか否か判断し、画像を切り出すタイミングを決定する。
When the
例えば、解析結果には、図5に示すように、鼻の座標(X1、Y1)、口の両端の座標(X2、Y2)(X3、Y3)が含まれている。口が隠れた場合、口の両端の座標は推定値となり、座標が変動する。また、鼻が隠れた場合、鼻の座標は推定値となり、座標が変動する。 For example, as shown in FIG. 5, the analysis result includes the coordinates of the nose (X1, Y1) and the coordinates of both ends of the mouth (X2, Y2) (X3, Y3). When the mouth is hidden, the coordinates of both ends of the mouth are estimated values, and the coordinates change. Furthermore, when the nose is hidden, the coordinates of the nose become estimated values and the coordinates change.
切出部104は、鼻から口の両端までの距離、及び口の両端の間の距離として、X方向、Y方向にそれぞれ以下の評価値Ex、Eyを算出する。
Ex=(X1-X2)2+(X2-X3)2+(X3-X1)2
Ey=(Y1-Y2)2+(Y2-Y3)2+(Y3-Y1)2
The
Ex=(X1-X2) 2 +(X2-X3) 2 +(X3-X1) 2
Ey=(Y1-Y2) 2 +(Y2-Y3) 2 +(Y3-Y1) 2
切出部104は、動画データの各フレーム画像について、時系列順に、解析結果を用いて評価値Ex、Eyを算出する。切出部104は、動画データの初期のフレーム画像、すなわちガムを膨らます前の、鼻や口が見えているタイミングでの画像の評価値Ex、Eyを基準値に設定する。
The
切出部104は、算出した評価値Ex、Eyと基準値との差異が、X方向、Y方向の両方で所定の第1閾値を超えたときに、口が隠れたと判断し、このタイミングで動画から画像を切り出す。これにより、図2bに示すような画像が生成される。
The
また、切出部104は、算出した評価値Ex、Eyと基準値との差異が、X方向、Y方向の両方で所定の第2閾値(第2閾値>第1閾値)を超えたときに、口及び鼻が隠れたと判断し、このタイミングで動画から画像を切り出す。これにより、図2cに示すような画像が生成される。
Furthermore, when the difference between the calculated evaluation values Ex, Ey and the reference value exceeds a predetermined second threshold (second threshold>first threshold) in both the X direction and the Y direction, the
切出部104は、解析結果に含まれるガム領域の位置情報から、ガム領域の大きさを算出する。例えば、解析結果には、ガム領域の位置情報として、ガム領域のX座標の最大値及び最小値、Y座標の最大値及び最小値が含まれる。切出部104は、ガム領域の座標を用いて、図6に示すように、ガム領域のX方向の寸法Lx、Y方向の寸法Lyを算出し、LxとLyを乗じた値(Lx×Ly)をガム領域の大きさとして算出する。
The
切出部104は、算出したガム領域の大きさが所定の閾値以上となったタイミングで動画から画像を切り出す。これにより、図2dに示すような画像が生成される。
The
切出部104は、ガム領域の位置情報が一定時間(ごく短時間)の間に所定量以上変化した場合、膨らんでいたガムが破裂したと判断し、このタイミングで動画から画像を切り出す。これにより、図2eに示すような画像が生成される。
If the positional information of the gum area changes by a predetermined amount or more within a certain period of time (a very short time), the
切出部104は、目の座標の変化量から目つぶりを判断し、画像を切り出すタイミングを決定する。例えば、解析結果には、右目の座標(XeyeRt、YeyeRt)と左目の座標(XeyeLt、YeyeLt)が含まれている。切出部104は、動画データの出だし(初期)のフレーム画像、すなわちガムを膨らます前の画像の解析結果に含まれる右目の座標(XeyeR0、YeyeR0)、左目の座標(XeyeL0、YeyeL0)を基準値に設定する。
The
そして、切出部104は、以下の式で目の座標の変化量を算出し、算出した変化量が所定の閾値を超えると、目つぶりしたと判断し、このタイミングで動画から画像を切り出す。これにより、図2fに示すような画像が生成される。
目の座標の変化量=(XeyeRt-XeyeR0)2+(YeyeRt-YeyeR0)2
Then, the
Amount of change in eye coordinates = (X eyeRt - X eyeR0 ) 2 + (Y eyeRt - Y eyeR0 ) 2
上記の式は右目の座標の変化量を算出するものであるが、左目の座標を用いて変化量を算出してもよいし、右目及び左目の両方の座標を用いて変化量を算出してもよい。 The above formula calculates the amount of change in the coordinates of the right eye, but the amount of change may be calculated using the coordinates of the left eye, or the amount of change may be calculated using the coordinates of both the right and left eyes. Good too.
表示処理部105は、切出部104が切り出した画像をタッチパネル14に表示する。
The
プリント処理部106は、切出部104が切り出した画像をプリンタ15からプリント出力させる。タッチパネル14に表示された複数の画像のうち、ユーザ5がタッチパネル14を操作して選択した画像をプリント出力してもよい。
The
通信部12は、切出部104により切り出された画像をユーザ5のメールアドレス宛にデータ送信できる。また、通信部12は、切出部104により切り出された画像をキャンペーンサイトに投稿できる。
The
このように、本実施形態によれば、動画から面白い瞬間で画像を切り出し、面白みのある画像を生成できる。 In this way, according to the present embodiment, images can be cut out at interesting moments from a video to generate interesting images.
上記実施形態では、画像生成装置1が動画の撮影、及び画像の切り出しを行う例について説明したが、図7に示すように、動画の撮影をユーザ5が所有するスマートフォン等のユーザ端末3で行ってもよい。ユーザ端末3は、撮影した動画をサーバ4へ送信する。
In the above embodiment, an example has been described in which the
サーバ4は動画を保存すると共に、動画を解析サーバ2へ送信する。サーバ4は、解析サーバ2から解析結果を受信すると、切出部104と同様の処理を行い、動画から画像を切り出す。サーバ4は、切り出した画像をユーザ端末3へ送信する。動画から画像を切り出す処理は、ユーザ端末3で行ってもよい。
The server 4 saves the video and also sends the video to the
上記実施形態では、撮影画像を解析し、顔のパーツの位置を検出する解析サーバ2と、動画から画像を切り出す画像生成装置1とが異なるコンピュータである例について説明したが、1つのコンピュータが解析と切り出しを行ってもよい。
In the above embodiment, an example has been described in which the
上記実施形態では、ガムを膨らませる様子を撮影する例について説明したが、風船など他の物体を膨らませるものであってもよい。また、カメラに向かって面白い表情をし、顔の各パーツの座標の変化から表情が変わるタイミングを決定し、そのタイミングで動画から画像を切り出してもよい。 In the embodiment described above, an example was described in which the state of inflating gum is photographed, but it may also be possible to inflate another object such as a balloon. Alternatively, the user may make an interesting expression toward the camera, determine the timing at which the expression changes based on changes in the coordinates of each part of the face, and then cut out the image from the video at that timing.
上記実施形態では、撮影部13がユーザ5を動画撮影する例について説明したが、静止画を高速連写するものであってもよい。
In the embodiment described above, an example has been described in which the photographing
本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-mentioned embodiments as they are, and in the implementation stage, the constituent elements can be modified and embodied without departing from the spirit of the invention. Moreover, various inventions can be formed by appropriately combining the plurality of components disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiments. Furthermore, components of different embodiments may be combined as appropriate.
1 画像生成装置
2 解析サーバ
3 ユーザ端末
4 サーバ
5 ユーザ
1
Claims (5)
前記動画データにおいて前記ユーザの口又は鼻が物体により隠れたタイミングで前記動画データから静止画を切り出す切出部と、
を備える画像生成システム。 an image acquisition unit that acquires video data of a user's face;
a cutting unit that cuts out a still image from the video data at a timing when the user's mouth or nose is hidden by an object in the video data;
An image generation system comprising:
前記切出部は、前記解析結果を参照し、前記口及び鼻の位置の変化に基づいて、前記タイミングを決定することを特徴とする請求項1に記載の画像生成システム。 Further comprising an analysis result acquisition unit that acquires, for each of the plurality of frame images included in the video data, an analysis result including information on the positions of the user's mouth and nose in the frame image,
The image generation system according to claim 1, wherein the cutting section refers to the analysis result and determines the timing based on changes in the positions of the mouth and nose.
前記切出部は、鼻から口の両端までの距離、及び口の両端の間の距離の変化に基づいて、前記タイミングを決定することを特徴とする請求項2に記載の画像生成システム。 The analysis result includes information on the positions of both ends of the user's mouth,
3. The image generation system according to claim 2, wherein the cutting section determines the timing based on a distance from the nose to both ends of the mouth and a change in the distance between both ends of the mouth.
前記切出部は、さらに、前記目の位置の変化に基づくタイミングで前記動画データから静止画を切り出すことを特徴とする請求項2又は3に記載の画像生成システム。 The analysis result includes information on the position of the user's eyes,
The image generation system according to claim 2 or 3, wherein the cutting unit further cuts out a still image from the video data at a timing based on a change in the position of the eye.
前記解析結果は、前記フレーム画像内のガム領域の位置情報を含み、
前記切出部は、前記ガム領域の位置情報からガム領域の大きさを算出し、算出した値が所定値以上となったタイミングで前記動画データからさらに静止画を切り出すことを特徴とする請求項2乃至4のいずれかに記載の画像生成システム。 The video data is a video of the user inflating gum;
The analysis result includes position information of a gum region within the frame image,
The cutting unit calculates the size of the gum region from the position information of the gum region, and further cuts out a still image from the video data at a timing when the calculated value becomes a predetermined value or more. 5. The image generation system according to any one of 2 to 4.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020043322A JP7409172B2 (en) | 2020-03-12 | 2020-03-12 | image generation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020043322A JP7409172B2 (en) | 2020-03-12 | 2020-03-12 | image generation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021144529A JP2021144529A (en) | 2021-09-24 |
JP7409172B2 true JP7409172B2 (en) | 2024-01-09 |
Family
ID=77766853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020043322A Active JP7409172B2 (en) | 2020-03-12 | 2020-03-12 | image generation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7409172B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004158013A (en) | 2002-11-04 | 2004-06-03 | Samsung Electronics Co Ltd | Face detection system and method, and face image authentication method |
JP2010171550A (en) | 2009-01-20 | 2010-08-05 | Canon Inc | Image recorder |
JP2012181629A (en) | 2011-02-28 | 2012-09-20 | Sogo Keibi Hosho Co Ltd | Face detection method, face detection device, and program |
JP2015076767A (en) | 2013-10-09 | 2015-04-20 | 株式会社ニコン | Imaging apparatus |
-
2020
- 2020-03-12 JP JP2020043322A patent/JP7409172B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004158013A (en) | 2002-11-04 | 2004-06-03 | Samsung Electronics Co Ltd | Face detection system and method, and face image authentication method |
JP2010171550A (en) | 2009-01-20 | 2010-08-05 | Canon Inc | Image recorder |
JP2012181629A (en) | 2011-02-28 | 2012-09-20 | Sogo Keibi Hosho Co Ltd | Face detection method, face detection device, and program |
JP2015076767A (en) | 2013-10-09 | 2015-04-20 | 株式会社ニコン | Imaging apparatus |
Non-Patent Citations (1)
Title |
---|
市川 清人,顔パーツを利用した隠れを含む顔の検出手法,画像電子学会誌 ,日本,画像電子学会,2008年07月25日,第37巻 第4号,P.419-427 |
Also Published As
Publication number | Publication date |
---|---|
JP2021144529A (en) | 2021-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3582187B1 (en) | Face image processing method and apparatus | |
US10360715B2 (en) | Storage medium, information-processing device, information-processing system, and avatar generating method | |
US10455148B2 (en) | Image capturing device to capture image of a subject based on a communication process | |
JP6809226B2 (en) | Biometric device, biometric detection method, and biometric detection program | |
CN106161939B (en) | Photo shooting method and terminal | |
US8131024B2 (en) | Apparatus and method of image capture for facial recognition | |
US20170039774A1 (en) | Augmented Reality Communications | |
US10379610B2 (en) | Information processing device and information processing method | |
KR20170031733A (en) | Technologies for adjusting a perspective of a captured image for display | |
JP2004195243A5 (en) | ||
JP7000050B2 (en) | Imaging control device and its control method | |
JP6096654B2 (en) | Image recording method, electronic device, and computer program | |
KR102364929B1 (en) | Electronic device, sever, and system for tracking skin changes | |
CN111667588A (en) | Person image processing method, person image processing device, AR device and storage medium | |
KR101672691B1 (en) | Method and apparatus for generating emoticon in social network service platform | |
JP2006330464A (en) | Attendance status discriminating device, method, and program | |
JP7409172B2 (en) | image generation system | |
TWI680005B (en) | Movement tracking method and movement tracking system | |
TWI466070B (en) | Method for searching eyes, and eyes condition determining device and eyes searching device using the method | |
JP2020177605A (en) | Image processing device | |
CN116567349A (en) | Video display method and device based on multiple cameras and storage medium | |
CN113176827B (en) | AR interaction method and system based on expressions, electronic device and storage medium | |
JP2012244226A (en) | Imaging device, image composition method, and program | |
EP2827589A1 (en) | Display device and device for adapting an information | |
CN113805824B (en) | Electronic device and method for displaying image on display apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7409172 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |