JP2019121991A - Moving image manual preparing system - Google Patents
Moving image manual preparing system Download PDFInfo
- Publication number
- JP2019121991A JP2019121991A JP2018002062A JP2018002062A JP2019121991A JP 2019121991 A JP2019121991 A JP 2019121991A JP 2018002062 A JP2018002062 A JP 2018002062A JP 2018002062 A JP2018002062 A JP 2018002062A JP 2019121991 A JP2019121991 A JP 2019121991A
- Authority
- JP
- Japan
- Prior art keywords
- storage target
- determination unit
- photographer
- image
- gaze
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、動画マニュアルを作成する動画マニュアル作成システムに関する。 The present invention relates to a movie manual creation system for creating a movie manual.
従来から、業務の共有・効率化、新人教育などで文書マニュアルが活用されている一方で、マニュアルを動画で表示する動画マニュアルが近年では注目されており、その作成技術が例えば特許文献1に開示されている。特許文献1では、入力されるテキストデータに基づいて、作業内容を示す作業画像データ(例えば3Dアニメーションデータ)を作成し、作業画像データとテキストデータとを対応付けて出力するようにしている。
Conventionally, a document manual has been utilized for sharing and efficiency of work, new employee education, etc., while a moving image manual for displaying the manual as a moving image has attracted attention in recent years, and its creation technology is disclosed in, for example,
一方、動画に対する画像処理の一手法が、例えば特許文献2に開示されている。特許文献2では、動画を構成する各フレームを、所定のサイズの領域ごとに走査して、領域ごとの重要度を算出し、上記領域を重要度に基づいてクラスタリングすることにより、少なくとも1つの領域クラスタを生成し、上記少なくとも1つの領域クラスタから、重要度に基づいて重要領域クラスタを選択し、各フレームの重要領域クラスタを含む部分フレームを抽出し、上記部分フレームにより構成される部分動画を生成するようにしている。これにより、動画に含まれる重要度が大きい領域を効率的に視聴することが可能となっている。
On the other hand, one method of image processing for moving images is disclosed, for example, in
また、例えば特許文献3では、動画に含まれるフレームからオブジェクトを検出し、検出されたオブジェクトを含む所定の領域から得られる画像特徴量に基づいてオブジェクトを識別し、動画においてオブジェクトに関連する動作を検出し、検出されたオブジェクトの位置と、オブジェクトに関連する動作の検出結果とに基づいて、動画の各フレームにおける注目領域を決定している。これにより、注目領域のトリミングや拡大表示によって、動画閲覧者が注目領域を容易に閲覧することができるようにしている。
For example, in
また、例えば特許文献4では、記録媒体に、撮影画像の画像データと、視線情報または視線情報から検出される主要被写体の情報とを記録するようにしている。これにより、記録媒体に記録された情報を用いて、主要被写体が存在する見たいシーンの検出や、主要被写体を中心とした画像の再生や編集等を効率よく行い、貴重な画像データを十分に活用することが可能となっている。また、特許文献4では、動画の画像データから、主要被写体を特定できるシーンのみ(あるいはさらに、その前後の所定数フレーム)を抽出して、これを1つの動画の画像データに編集したり、同じ主要被写体が存在する複数の動画から同じ主要被写体が存在するシーンをまとめて、1つの動画の画像データに編集してもよいことも開示されている。 Further, for example, in Patent Document 4, image data of a photographed image and information of a main subject detected from line-of-sight information or line-of-sight information are recorded in a recording medium. As a result, information recorded in the recording medium is used to efficiently detect a scene in which the main subject is desired, and to reproduce and edit an image centered on the main subject efficiently, thereby making it possible to obtain valuable image data sufficiently. It is possible to utilize it. Further, in Patent Document 4, only a scene that can identify a main subject (or a predetermined number of frames before and after that) is extracted from image data of a moving image, and this is edited into image data of one moving image, or the same It is also disclosed that a scene in which the same main subject is present from a plurality of videos in which the main subject is present may be compiled into image data of one video.
ところが、特許文献1の動画マニュアルの作成方法では、テキストデータの入力の作業や工程が必要であり、簡単な手法で動画マニュアルを作成することができない。また、特許文献2および3は、いずれも動画の一部を抽出することを開示しているが、抽出にあたって動画の撮影者の意図が全く反映されていない。さらに、特許文献4では、記録媒体に記録された情報から、主要被写体を中心とする画像の編集作業を行うことは可能であるが、記録媒体に記録される情報(画像データ)自体を、撮影者の視線情報に応じて変える思想は全くない。このため、特許文献2〜4の技術を動画マニュアルの作成に適用しても、撮影者の意図を的確に反映した動画マニュアルを作成することができない。
However, the method of creating a moving image manual of
本発明は、上記の問題点を解決するためになされたもので、その目的は、撮影者の視線情報を用いて、撮影者の意図を的確に反映した動画マニュアルを簡単な方法で作成することができる動画マニュアル作成システムを提供することにある。 The present invention has been made to solve the above-mentioned problems, and its object is to create a video manual, which accurately reflects the photographer's intention, using the photographer's gaze information in a simple method. To provide a video manual creation system that can
本発明の一側面に係る動画マニュアル作成システムは、撮影者の視界を動画で撮影して視界画像を取得する撮像部と、前記撮影者の視線情報を検出する視線検出部と、前記視線情報に基づいて、前記撮影者の注視の有無を判別する判別部と、前記判別部の判別結果に基づいて、前記視界画像の少なくとも一部を記憶対象として決定する記憶対象決定部と、前記記憶対象決定部によって決定された前記記憶対象を、動画マニュアルのデータとして記憶する記憶部とを備えている。 A moving image manual creation system according to one aspect of the present invention includes an imaging unit that captures a view of a photographer as a moving image and acquires a view image, a gaze detection unit that detects gaze information of the photographer, and the gaze information. And a storage target determination unit configured to determine at least a part of the view image as a storage target based on the determination unit that determines the presence or absence of the photographer's gaze based on the determination result of the determination unit; And a storage unit configured to store the storage target determined by the unit as data of a moving image manual.
上記の動画マニュアル作成システムにおいて、前記判別部は、前記視線情報に基づいて、前記視界画像における前記撮影者の視線の位置と、前記視線の位置の滞留時間とを求める視線解析部と、前記視線の位置および前記滞留時間に基づいて、前記撮影者の前記注視状態を判断する注視判断部とを含んでいてもよい。 In the above-described moving image manual creation system, the determination unit determines a position of the line of sight of the photographer in the view image and a dwell time of the position of the line of sight based on the line-of-sight information; And a gaze determination unit configured to determine the gaze condition of the photographer based on the position of and the staying time.
上記の動画マニュアル作成システムにおいて、前記注視判断部は、前記視線の位置に基づいて、前記視線のブレを示すドリフト量を検出し、前記ドリフト量が閾値以下で、かつ、前記滞留時間が所定時間以上である場合に、前記撮影者の注視ありと判断してもよい。 In the above-described moving image manual creation system, the gaze determination unit detects a drift amount indicating a blur of the gaze based on the position of the gaze, and the drift amount is equal to or less than a threshold and the staying time is a predetermined time In the case of the above, it may be determined that the photographer gazes.
上記の動画マニュアル作成システムにおいて、前記記憶対象決定部は、前記判別部によって前記撮影者の注視があると判別された場合に、前記視界画像の中で前記撮影者によって注視されている被写体が存在する被写体領域を特定して、前記視界画像から前記被写体領域を抽出し、抽出した前記被写体領域を前記記憶対象として決定してもよい。 In the above-described moving image manual creation system, when the determination unit determines that the photographer is gazing at the storage object determination unit, a subject being gazed by the photographer is present in the view image. The subject region may be specified, the subject region may be extracted from the view image, and the extracted subject region may be determined as the storage target.
上記の動画マニュアル作成システムにおいて、前記記憶対象決定部は、抽出した前記被写体領域を拡大し、拡大後の画像を前記記憶対象として決定してもよい。 In the above-described moving image manual creation system, the storage target determination unit may enlarge the extracted subject area and determine the image after enlargement as the storage target.
上記の動画マニュアル作成システムにおいて、前記記憶対象決定部は、前記判別部によって取得される情報に応じて、前記視界画像から前記被写体領域を抽出する際の抽出範囲を変化させてもよい。 In the above-described moving image manual creation system, the storage target determination unit may change an extraction range when extracting the subject region from the view image, according to the information acquired by the determination unit.
上記の動画マニュアル作成システムにおいて、前記記憶対象決定部は、前記判別部によって取得される前記滞留時間に応じて、前記抽出範囲を変化させてもよい。 In the above-described moving image manual creation system, the storage target determination unit may change the extraction range in accordance with the residence time acquired by the determination unit.
上記の動画マニュアル作成システムにおいて、前記記憶対象決定部は、前記判別部によって取得される前記視線の複数位置の重心の変化に応じて、前記抽出範囲を変化させてもよい。 In the above-described moving image manual creation system, the storage target determination unit may change the extraction range according to a change in the center of gravity of the plurality of positions of the line of sight acquired by the determination unit.
上記の動画マニュアル作成システムにおいて、前記記憶対象決定部は、前記判別部によって前記撮影者の注視がないと判別された場合に、前記視界画像を前記記憶対象として決定してもよい。 In the above-described moving image manual creation system, the storage target determination unit may determine the view image as the storage target when the determination unit determines that the photographer is not gazing.
上記の動画マニュアル作成システムは、前記撮影者の音声が入力される音声入力部と、前記音声入力部によって入力された音声を認識してテキストデータに変換する音声認識部とをさらに備え、前記記憶対象決定部は、前記テキストデータを、前記視界画像の少なくとも一部に合成して、前記記憶対象を決定してもよい。 The above-mentioned moving picture manual creation system further comprises: a voice input unit to which the voice of the photographer is input; and a voice recognition unit to recognize the voice input by the voice input unit and convert it into text data; The object determining unit may combine the text data with at least a part of the view image to determine the storage object.
上記の動画マニュアル作成システムにおいて、前記記憶対象決定部は、前記記憶対象において被写体が存在する領域の外側に前記テキストデータが位置するように、前記テキストデータを前記視界画像の少なくとも一部に合成してもよい。 In the above-described moving image manual creation system, the storage target determination unit combines the text data with at least a part of the view image so that the text data is positioned outside the area where the subject is present in the storage target. May be
上記の動画マニュアル作成システムの構成によれば、撮影者の視線情報を用いて、撮影者の意図を的確に反映した動画マニュアルを簡単な方法で作成することができる。 According to the above-described configuration of the moving image manual creation system, it is possible to create a moving image manual that accurately reflects the photographer's intention by a simple method using the photographer's line of sight information.
本発明の実施の一形態に係る動画マニュアル作成システムについて、図面に基づいて説明すれば以下の通りである。なお、本発明は、以下の内容に限定されるわけではない。 It will be as follows if the animation manual creation system concerning one embodiment of the present invention is explained based on a drawing. The present invention is not limited to the following contents.
〔動画マニュアル作成システムの構成〕
図1は、本実施形態の動画マニュアル作成システム1の概略の構成を模式的に示す斜視図である。動画マニュアル作成システム1は、撮像部2と、視線検出部3と、マイク4と、制御ボックス10とを備えて構成されている。撮像部2および視線検出部3は、例えば眼鏡5に搭載されている。眼鏡5は、視度矯正用のレンズを備えた通常の眼鏡であってもよいし、視度を矯正しないダミーレンズを備えた眼鏡であってもよいし、頭部搭載型の虚像表示装置(ヘッドマウントディスプレイ)であってもよい。
[Configuration of movie manual creation system]
FIG. 1 is a perspective view schematically showing a schematic configuration of a moving image
撮像部2は、撮影者の視界を動画で撮影して視界画像を取得するカメラ(視線カメラ)であり、例えば眼鏡5の左右のレンズをつなぐ中央のブリッジに搭載されている。このため、撮影者が眼鏡5をかけたとき、撮像部2は撮影者の眼に近い位置から撮影者の視界を撮影することになる。
The
視線検出部3は、撮影者の視線情報を検出する素子であり、照明部(イルミネータ)および受光部を有している。イルミネータによって撮影者の角膜付近に近赤外線を照射し、その反射光を受光部で検出することにより、撮影者の角膜表面にできるプルキニエ像の位置と撮影者の瞳孔の位置との相対的な位置の変化を検出することができ、これによって撮影者の視線方向を上記視線情報として検出することができる(角膜反射法)。例えば、左眼の角膜反射の位置(プルキニエ像の位置)よりも瞳孔が目じり側にあれば、撮影者は左側を見ており(撮影者の視線が左方向を向いており)、角膜反射の位置よりも瞳孔が目頭側にあれば、撮影者は右側を見ている(撮影者の視線が右方向を向いている)ことを検出できる。なお、本実施形態の視線検出部3は、上記のように代表的な角膜反射法によって視線検出(アイトラッキング)を行う構成であるが、強膜反射法などの他の方法で視線検出を行う構成であってもよい。また、本実施形態では、視線検出部3は、眼鏡5の左右のレンズのそれぞれの縁に設けられて、両眼について視線を検出する構成としているが、どちらか一方のレンズの縁に設けられて、片眼について視線を検出する構成としてもよい。
The
マイク4は、撮影者の音声が入力される音声入力部である。 The microphone 4 is a voice input unit to which the voice of the photographer is input.
撮像部2、視線検出部3およびマイク4は、配線6を介して制御ボックス10と接続されている。これにより、撮像部2で取得された情報(撮影者の視界画像のデータ)、視線検出部3で取得された情報(撮影者の視線情報)、およびマイク4で取得された情報(撮影者の音声情報)が、配線6を介して制御ボックス10に出力される。なお、撮像部2、視線検出部3およびマイク4と、制御ボックス10とは、無線で情報を伝達する構成であってもよい。
The
〔制御ボックスの構成〕
図2は、制御ボックス10の詳細な構成を示すブロック図である。制御ボックス10は、撮像部2、視線検出部3およびマイク4から出力される情報に基づいて、動画マニュアルの作成を実行する。この制御ボックス10は、操作部11と、記憶部12と、制御部13とを有している。
[Configuration of control box]
FIG. 2 is a block diagram showing the detailed configuration of the
操作部11は、撮影者によって操作されて各種の指示入力を受け付けるボタンやスイッチで構成されている。記憶部12は、制御部13の動作プログラムのほか、各種の情報を記憶するメモリであり、例えばRAM(Random Access Memory)、ROM(Read Only Memory)、不揮発性メモリなどを含んで構成されている。特に、本実施形態では、記憶部12は、後述する記憶対象決定部16によって決定された記憶対象を、動画マニュアルのデータとして記憶するメモリである。
The
なお、本実施形態では、記憶部12に記憶された情報(記憶対象のデータ)を読み出して、図示しない再生装置の表示部に記憶対象の画像を表示させることを、「動画マニュアルの再生」、「記憶対象の再生」、または単に「再生」と称する。
In the present embodiment, “reproduction of a moving image manual” is to read out information (data to be stored) stored in the
制御部13は、例えばCPU(Central Processing Unit;中央演算処理装置)で構成されている。この制御部13は、判別部14と、音声認識部15と、記憶対象決定部16と、主制御部17とを有しており、上記のCPUがこれらの各部の機能を発揮する。なお、判別部14、音声認識部15、記憶対象決定部16および主制御部17は、別々のCPUで構成されていてもよいし、所定の機能を発揮する専用の処理回路で構成されていてもよい。
The
判別部14は、視線検出部3によって検出された視線情報に基づいて、撮影者の注視の有無を判別する。このような判別部14は、視線解析部14aと、注視判断部14bとを含んで構成されている。
The
視線解析部14aは、上記視線情報に基づいて、視界画像における撮影者の視線の位置と、上記視線の位置の滞留時間とを解析して求める。視線解析部14aは、計時部(図示せず)を内蔵しており、これによって、上記滞留時間を計時することができる。
The line-of-
注視判断部14bは、視線解析部14aによって取得された上記視線の位置および上記滞留時間に基づいて、撮影者の注視状態(注視の有無)を判断する。例えば、注視判断部14bは、撮影者の視線の位置のブレが所定範囲内に収まっており、その状態が所定時間以上続いた場合には、撮影者が被写体を注視していると判断でき、それ以外の場合は、撮影者が被写体を注視していないと判断することができる。
The gaze determination unit 14b determines the gaze state (presence or absence of gaze) of the photographer based on the position of the line of sight acquired by the line of
音声認識部15は、マイク4によって入力された音声を認識してテキストデータに変換する。記憶対象決定部16は、判別部14の判別結果(注視の有無の判別結果)に基づいて、視界画像の少なくとも一部を記憶対象として決定する。主制御部17は、制御ボックス10内の各部の動作を制御する。
The
〔処理フロー〕
次に、本実施形態の動画マニュアル作成システム1における各処理を具体的に説明する。図3は、動画マニュアル作成システム1における処理の流れを示すフローチャートである。
[Processing flow]
Next, each process in the moving image
まず、撮影者は、視線検出部3によって取得される視線情報と、撮像部2によって取得される視界画像との同期を図る(S1)。この同期処理により、撮影者の被写体に対する視線の方向と、視界画像の中での被写体の位置とを合わせる(同期させる)ことができる。
First, the photographer synchronizes the gaze information acquired by the
この同期処理は、具体的には、マニュアル作成のための動画撮影の前に、撮影者がマーカーを注視することによって行われる。つまり、図4に示すように、撮影者はマーカーMの中心Moを注視し、このときの視界画像を撮像部2によって取得する。同時に、撮影者がマーカーMの中心Moを注視しているときの視線情報を視線検出部3によって取得する。取得された上記視線情報は、マーカーMの中心Moを注視する撮影者の視線の方向を示すため、この状態で視線情報と視界画像との同期がとれていることになる。そこで、撮影者は、この状態で操作部11を操作して同期を確立させ、同期処理を終了させる。
Specifically, this synchronization processing is performed by the photographer looking at a marker before moving image shooting for manual creation. That is, as shown in FIG. 4, the photographer gazes at the center Mo of the marker M, and the
次に、撮影者は、操作部11を操作して、撮像部2によってマニュアル作成のための動画撮影を開始させる(S2)。撮影者が作業内容を説明しながら実際の作業を進めていくことで、そのときの撮影者の視界画像(動画)が撮像部2によって取得され、撮影者の視線情報が視線検出部3によって取得され、撮影者の音声情報がマイク4によって取得される(S3)。なお、視線検出部3による視線情報の取得は、任意の間隔でよく、本実施形態では、例えば0.1秒ごとに視線情報が取得されているとする。
Next, the photographer operates the
図5は、S3で取得した視界画像、視線情報および音声情報の一例を示している。ここでは例として、動画マニュアルの作成対象となる作業が、ドライバA1を用いて、ネジA2を筐体A3に締める作業であるとする。同図より、視界画像に含まれるドライバA1、ネジA2および筐体A3と対応する位置に視線映像(視線の位置を示す映像)P1〜P3が位置する視線情報が得られていることがわかる。撮像部2、視線検出部3、およびマイク4によって取得された各情報(視界画像の情報、視線情報、音声情報)は、配線6を介して制御ボックス10に送られる。
FIG. 5 shows an example of the view image, the line-of-sight information, and the audio information acquired in S3. Here, as an example, it is assumed that the operation to be a target of creation of the moving image manual is an operation of tightening the screw A2 to the housing A3 using the driver A1. From the figure, it can be seen that line-of-sight information is obtained in which line-of-sight videos (video showing the position of the line of sight) P1 to P3 are located at positions corresponding to the driver A1, the screw A2 and the housing A3 included in the view image. Information (visual field image information, visual line information, audio information) acquired by the
制御ボックス10の判別部14は、視線検出部3によって取得された視線情報を解析して、撮影者の注視状態を判断する(S4)。具体的には、判別部14の視線解析部14aは、上記視線情報に基づいて、撮像部2によって取得された視界画像における撮影者の視線の位置と、上記視線の位置の滞留時間とを求める。そして、注視判断部14bは、上記視線の位置および上記滞留時間に基づいて、撮影者の注視の有無を判断する。
The
例えば、注視判断部14bは、水平方向の画角および垂直方向の画角がそれぞれX軸およびY軸に対応するXY座標平面上で、上記視線情報に基づいて得られる撮影者の最新の視線位置と、直近で得られた9個の視線位置の合計10個についての位置座標の重心の移動量(移動前後の各重心に向かう2つの視線方向の角度差)を算出する。なお、上記重心のX座標は、10個の視線位置のX座標の平均であり、上記重心のY座標は、10個の視線位置のY座標の平均である。そして、注視判断部14bは、上記角度差が例えば0.5°以内であると、視線のブレを示すドリフト量が小さいと判断し、その状態(滞留時間)が所定時間(例えば2秒)以上継続すると、注視と判断する。なお、本実施形態では、重心を求める際に用いた視線位置の数を10個とし、上記角度差を1°以内の0.5°とし、上記所定時間を2秒としたが、これらの値は作業内容に応じて適宜変更可能である。 For example, the gaze determination unit 14b determines the latest gaze position of the photographer obtained based on the gaze information on the XY coordinate plane in which the horizontal angle of view and the vertical angle of view respectively correspond to the X axis and Y axis. The amount of movement of the center of gravity of the position coordinates for a total of ten of the nine line-of-sight positions obtained most recently (angle difference between two line-of-sight directions toward each center of gravity before and after movement) is calculated. The X-coordinate of the center of gravity is an average of X-coordinates of ten eye-gaze positions, and the Y-coordinate of the centroid is an average of Y-coordinates of ten eye-gaze positions. Then, the gaze determination unit 14b determines that the drift amount indicating the blur of the sight line is small if the angle difference is, for example, 0.5 ° or less, and the state (retention time) is a predetermined time (for example, 2 seconds) or more If it continues, it will be judged as a gaze. In the present embodiment, the number of eye positions used when determining the center of gravity is ten, the angle difference is 0.5 ° within 1 °, and the predetermined time is 2 seconds. Can be changed appropriately according to the work content.
ここで、上記角度差が0.5°以内であるか否かは、撮像部2の撮影画角(水平方向、垂直方向の各画角)と撮像素子のパラメータ(画素数、1画素の大きさ)とを用いて判断することができる。例えば、図6は、上記のXY座標平面を模式的に示している。なお、X軸は、撮像部2の水平方向の画角に対応しており、Y軸は、撮像部2の垂直方向の画角に対応している。撮像部2において、画角a°が画素数b個に対応している場合、画角0.5°は、画素数(0.5b/a)個に対応する。また、撮像素子の1画素(正方形とする)の一辺の長さをc(μm)とすると、角度差0.5°に相当する長さ(μm)は、(画素数)×(1画素の一辺の長さ)=(0.5b/a)×cで表される。したがって、10個の視線位置の重心Gの移動量Tが、(0.5b/a)×c以下であるか否かを判断することにより、上記の角度差が0.5°以内であるか否かを判断することができる。
Here, whether or not the angle difference is within 0.5 ° depends on the shooting angle of view (horizontal and vertical angle of view) of the
注視判断部14bによって撮影者の注視ありと判断された場合(S5にてYes)、記憶対象決定部16は、公知の稜線検出法を用いた画像処理によって、視界画像の中で被写体の輪郭線を検出し、輪郭線で囲まれた領域を、被写体が存在する被写体領域として特定する(S6)。
When it is determined by the gaze determination unit 14b that the photographer has gazed (Yes in S5), the storage
次に、記憶対象決定部16は、視界画像から、S6で特定された被写体領域を画像処理によって抽出(トリミング)する(S7)。そして、記憶対象決定部16は、抽出された上記被写体領域を、記憶部12に記憶させる記憶対象の画像として決定する(S8)。このとき、記憶対象決定部16は、上記被写体領域を等倍のまま記憶対象の画像として決定してもよいし、上記被写体領域を拡大して拡大画像を生成し、この拡大画像を記憶対象の画像として決定してもよい。ここでは、記憶対象決定部16は、後者のように被写体領域の拡大画像を記憶対象の画像として決定しているとする。なお、上記の記憶対象は、作成された動画マニュアルを再生するときに、表示部に表示される表示対象でもある。
Next, the storage
一方、注視判断部14bによって撮影者の注視がないと判断された場合(S5にてNo)、記憶対象決定部16は、S3で取得された全体の視界画像を、記憶部12に記憶させる記憶対象の画像として決定する(S9)。
On the other hand, when it is determined by the gaze determination unit 14b that the photographer does not gaze (No in S5), the storage
次に、音声認識部15は、S3で取得された音声情報を、音声認識してテキストデータに変換する(S10)。そして、記憶対象決定部16は、上記した記憶対象の画像に対して、S10で取得されたテキストデータをコメントとして付加するコメント付加領域を設定する(S11)。このとき、コメント付加領域は、記憶対象の画像において、撮影者の注視がある場合は、注視されている被写体の外側の領域に設定され、撮影者の注視がない場合は、被写体が存在しない領域(被写体と重ならない領域)に設定される。なお、記憶対象の画像において、被写体が存在する領域であるか否かは、記憶対象決定部16がS6と同様の処理(例えば稜線検出法を用いた画像処理)を行うことによって判断することができる。
Next, the
そして、記憶対象決定部16は、S8またはS9で取得した記憶対象の画像のコメント付加領域に、S10で取得したテキストデータをコメントとして付加して、これらを合成する(S12)。そして、記憶対象決定部16は、合成後の記憶対象の画像を経過時間と対応付けて記憶部12に記憶させる(S13)。撮影者が操作部11を操作して作業終了を入力するまで、以上の処理が繰り返し行われ(S14)、作業が終了すると、一連の処理が終了する。
Then, the storage
図7は、S13において、記憶部12に記憶される記憶対象の画像(記憶画像、表示画像)の一例を示している。撮影者の注視がない場合、記憶対象は視界画像であるため、視界画像において「5か所のネジを締めます」というコメントが付加された画像が、動画マニュアルのデータとして記憶部12に記憶される。このとき、被写体(ドライバA1、筐体A2、ネジA3)に対する注視がないため、上記コメントは、視界画像において被写体が存在しない領域(ドライバA1、筐体A2およびネジA3と重ならない領域)に付加される。
FIG. 7 shows an example of an image to be stored (stored image, display image) stored in the
また、撮影者がネジA2を注視している場合、記憶対象は、視界画像から抽出されて拡大されたネジA2の画像(被写体領域)であるため、ネジA2の画像の外側に上記コメントが付加された画像が、動画マニュアルのデータとして記憶部12に記憶される。また、撮影者が筐体A3を注視している場合、記憶対象は、視界画像から抽出されて拡大された筐体A3の画像(被写体領域)であるため、筐体A3の画像の外側に上記コメントが付加された画像が、動画マニュアルのデータとして記憶部12に記憶される。
Further, when the photographer gazes at the screw A2, the above-mentioned comment is added to the outside of the image of the screw A2 because the storage target is the image (object region) of the screw A2 extracted and enlarged from the view image. The stored image is stored in the
動画マニュアルを再生する場合、記憶部12に記憶された動画マニュアルのデータが再生装置(図示せず)によって読み出され、表示部(図示せず)に、上記データに基づく動画マニュアル(図7と同様の画像)が表示される。これにより、視聴者は、表示された動画マニュアルを視聴することが可能となる。
When reproducing a moving image manual, data of the moving image manual stored in the
以上のように、本実施形態の動画マニュアル作成システム1では、判別部14が、視線検出部3によって取得された視線情報に基づいて、撮影者の注視の有無を判別する(S3〜S5)。そして、記憶対象決定部16が、判別部14の判別結果に基づいて、撮像部2によって取得された視界画像の少なくとも一部を記憶対象として決定する(S6〜S9)。決定された記憶対象は、動画マニュアルのデータとして記憶部12に記憶される(S13)。
As described above, in the moving image
記憶対象決定部16は、判別部14の判別結果(撮影者の注視の有無)に基づいて、記憶対象を決定するため、撮影者が注視ありの場合と注視なしの場合とで、つまり、撮影者の視線情報に応じて、記憶対象を異ならせることができる。これにより、視線情報に応じて異なる記憶対象を動画マニュアルのデータとして記憶部12に記憶させて、撮影者の視線による意図を的確に反映した動画マニュアルを作成することができる。したがって、動画マニュアルの再生時には、撮影者の視線による意図を直観的でわかりやすく視聴者に伝えることができる。
The storage
また、撮影者の視界画像および視線情報を用いて記憶対象を決定するため、例えば撮影者が操作部11を操作してデータを手動入力する作業や工程は一切不要である。したがって、撮影者の視界画像および視線情報を用いて、動画マニュアルを簡単な方法で自動作成することができる。
Further, since the storage target is determined using the visual field image and the line-of-sight information of the photographer, for example, the operation and process of manually inputting data by the photographer operating the
また、判別部14は、上述した視線解析部14aと、注視判断部14bとを含んで構成されるため、注視判断部14bは、視線解析部14aによって求めた撮影者の視線の位置と、上記視線の位置の滞留時間とに基づいて、撮影者の注視状態(注視の有無)を的確に判断することができる。また、撮影者が作業時に集中して物体(被写体)を見ると、注視度が高くなるが、この注視度を、撮影者の視線の位置および滞留時間に基づいて的確に判断することも可能となる。
Further, since the
また、注視判断部14bは、視線解析部14aによって求めた撮影者の視線の位置に基づいて、視線のブレを示すドリフト量を検出し、ドリフト量が閾値以下で、かつ、滞留時間が所定時間以上である場合に、撮影者の注視ありと判断する(S4、S5)。ドリフト量が閾値以下で、滞留時間が所定時間以上である場合、撮影者の注視度が高いと判断できるため、この場合に撮影者の注視ありと判断することで、判断の精度を向上させることができる。
In addition, the gaze determination unit 14b detects a drift amount indicating a blur of the gaze based on the position of the gaze of the photographer determined by the
また、記憶対象決定部16は、判別部14によって撮影者の注視があると判別された場合に、視界画像の中で撮影者によって注視されている被写体が存在する被写体領域を特定して(S6)、視界画像から被写体領域を抽出し(S7)、抽出した被写体領域を記憶対象として決定する(S8)。撮影者が意図する被写体領域のみを抽出して記憶対象として決定することにより、記憶対象の再生時に、必要な領域(被写体領域)の情報のみを視聴者に提示することができる(再生時に不要な情報は視聴者に提示されないようにすることができる)。これにより、視聴者は提示される情報を見て、迷うことなく所定の作業に取り掛かることができる。
Further, when it is determined by the
また、記憶対象決定部16は、抽出した被写体領域を拡大し、拡大後の画像を記憶対象として決定する(S8)。この場合、記憶対象の再生時に、必要な領域(被写体領域)が拡大表示されるため、視聴者は表示される画像から、被写体の細部を確認することが可能かつ容易となる。
Further, the storage
また、記憶対象決定部16は、判別部14によって撮影者の注視がないと判別された場合に、撮像部2によって取得された視界画像を記憶対象として決定する(S9)。撮影者の注視がない場合、視界画像全体が記憶対象として決定されるため、記憶対象の再生時に、視聴者は、撮影者の視界全体を俯瞰して(広い視野で把握して)、大まかな情報(例えば作業内容)を把握することができる。
Further, when it is determined by the
また、音声認識部15は、マイク4によって入力された撮影者の音声を認識してテキストデータに変換し(S10)、記憶対象決定部16は、上記のテキストデータを、視界画像の少なくとも一部に合成して、記憶対象を決定する(S12)。このように、音声認識によるテキストデータを記憶対象に付加するため、記憶対象の再生時には、視聴者は表示される画像を見ながら、撮影者の指示や助言を視覚情報(テキストデータ)として明確に認識することができる。また、音声認識部15を備えているため、本実施形態のように、視界の撮影と同時に音声入力を行う構成が可能となり、テキストデータを別途手動で入力して画像と合成するような編集の手間を省くことも可能となる。
Further, the
特に、記憶対象決定部16は、音声認識によって取得されたテキストデータが、記憶対象において被写体が存在する領域の外側に位置するように、上記テキストデータを視界画像の少なくとも一部に合成する(S11、S12)。合成後の記憶対象において、被写体が存在する重要な領域にテキストデータが重ならないため、記憶対象の再生時に、視聴者は、重要な被写体およびテキストデータの両方を明確に認識することが可能となる。
In particular, the storage
〔被写体領域の抽出のバリエーション(1)〕
上述したS7の工程では、記憶対象決定部16が、判別部14によって取得される情報に応じて、視界画像から被写体領域を抽出する際の抽出範囲を変化させてもよい。以下、このような抽出のバリエーションについて説明する。
[Variation of Extraction of Subject Region (1)]
In the process of S7 described above, the storage
図8は、S3で取得される視界画像、視線情報および音声情報の他の例を示している。記憶対象決定部16は、視線解析部14aによって取得される視線の滞留時間に応じて、上記抽出範囲を変化させてもよい。例えば、記憶対象決定部16は、上記滞留時間が長くなると、上記抽出範囲を狭めて、被写体領域の一部を抽出してもよい。また、記憶対象決定部16は、視界画像から抽出した被写体領域の一部を拡大し、拡大後の画像を記憶対象として決定してもよい。この場合、記憶対象の再生時には、上記拡大後の画像が表示されることになる。
FIG. 8 shows another example of the view image, the line-of-sight information and the audio information acquired in S3. The storage
図9は、視線の滞留時間と、記憶対象の再生時における表示の拡大率との関係を模式的に示している。ここでは、視線のブレを示すドリフト量が小さい状態(視線の変化の前後での角度差が例えば0.5°以内の状態)を滞留時間の開始(基準、0秒)としている。図3で示したフローに基づき、まず、ドリフト量小の状態が2秒間続くと、注視と判定されるが(S4、S5)、それまでは、注視なしの判定であるため、記憶対象として決定される画像は視界画像であり(S9)、記憶対象の再生時には、視界画像が表示される。 FIG. 9 schematically shows the relationship between the dwell time of the line of sight and the enlargement factor of the display at the time of reproduction of the storage target. Here, a state in which the amount of drift indicating a blur of the line of sight is small (a state in which an angle difference before and after a change in the line of sight is, for example, 0.5 °) is set as the start of the residence time (0 second). Based on the flow shown in FIG. 3, first, if the state with a small drift amount continues for 2 seconds, it is determined to be a gaze (S4, S5), but it is determined to be a storage target since it is a determination without gaze. The image to be displayed is a view image (S9), and at the time of reproduction of the storage target, the view image is displayed.
注視ありの判定後、次に示す抽出範囲の縮小開始までは(ドリフト量小の開始から2秒後〜5秒後の間は)、視界画像の中で被写体領域が特定されて、被写体領域の全体が抽出される(S6、S7)。このため、記憶対象の再生時には、上記被写体領域が表示される。図10の上段は、注視判定から抽出範囲縮小開始までの間で、図8の視界画像から抽出された被写体領域R1の画像(被写体画像)を示している。 After it is determined that there is a gaze, the subject area is identified in the view image until the start of reduction of the extraction range shown next (from 2 seconds to 5 seconds after the start of the small drift amount). The whole is extracted (S6, S7). Therefore, the subject region is displayed at the time of reproduction of the storage target. The upper part of FIG. 10 shows an image (subject image) of the subject region R1 extracted from the view image of FIG. 8 between the gaze determination and the extraction range reduction start.
注視ありの判定後、ドリフト量小の状態が3秒間続くと(ドリフト量小の開始から5秒経過後)、記憶対象決定部16は、抽出範囲の縮小を開始させるととともに、上記抽出範囲内で被写体領域の一部を抽出し(S7)、抽出した被写体領域の一部を拡大して記憶対象として決定する(S8)。図10の下段は、抽出範囲の縮小開始後に、図8の視界画像から、被写体領域R1の一部の領域R2を抽出して拡大した画像(被写体画像)を示している。なお、領域R2は、被写体領域R1の一部の領域であるため、被写体領域R1よりも抽出範囲が小さい領域であることは明らかである。
If it is determined that the state of small drift continues for 3 seconds after the presence of gaze (after 5 seconds from the start of small drift amount), the storage
抽出領域の縮小に応じて、抽出された被写体領域は拡大され、拡大開始後3秒で(ドリフト量小の開始から8秒で)、目的の枠サイズまで拡大される。なお、目的の枠サイズとは、視線位置の標準偏差(ばらつき)をσとしたときに、ドリフト量小の状態が開始されてから、拡大開始の間に変動する視線位置の3σが包括される状態である。記憶対象の再生時には、所定の拡大率で被写体領域の一部(拡大画像)が表示される。なお、図9の縦軸の拡大率Lは、視線位置の3σが包括される状態に対応している。また、記憶対象の再生時の表示の中心は、同期間(拡大開始から拡大終了までの期間)での視線位置の平均である。 According to the reduction of the extraction area, the extracted subject area is expanded and expanded to the target frame size in 3 seconds after the start of expansion (in 8 seconds from the start of the small drift amount). When the standard deviation (variation) of the line-of-sight position is σ, the target frame size includes 3σ of the line-of-sight position that fluctuates between the start of enlargement after the state of small drift amount is started. It is a state. At the time of reproduction of the storage target, a part (enlarged image) of the subject area is displayed at a predetermined enlargement factor. Note that the enlargement ratio L on the vertical axis in FIG. 9 corresponds to the state in which 3σ of the gaze position is included. Further, the center of the display at the time of reproduction of the storage target is the average of the sight line positions during the synchronization (period from the start of enlargement to the end of enlargement).
なお、上記の角度差、注視判定のタイミング(ドリフト量小の開始から2秒後)、表示拡大のタイミング(注視判定から3秒後)、拡大の速度、目的の枠サイズ等は一例であり、状況に応じて適宜変更可能である。 The above angle difference, timing of gaze determination (2 seconds after the start of small drift amount), timing of display enlargement (3 seconds after gaze determination), speed of enlargement, target frame size, etc. are examples. It can be changed appropriately according to the situation.
例えば、基板のはんだ付けのような細かい作業では、撮影者の視線の滞留時間(注視時間)も自然と長くなり、記憶対象の再生時には、細部まで視聴者に見えたほうがよいことが多い。上記のように、記憶対象決定部16が、視線解析部14aによって取得される滞留時間に応じて、視界画像から被写体領域を抽出する際の抽出範囲を変化させることにより、上述のように、滞留時間に応じて抽出範囲を狭くするとともに、抽出した被写体領域の一部を拡大させた画像を記憶対象とすることができる。これにより、記憶対象の再生時に、視聴者に被写体の細部を大きく表示して細かい情報を伝えることが可能となる。
For example, in a detailed operation such as soldering of a substrate, the dwell time (gaze time) of the photographer's gaze naturally becomes long, and it is often better for the viewer to see the details at the time of reproduction of the memory object. As described above, as described above, the storage
また、例えば注視の初期から(視線位置の滞留時間が短いうちから)抽出範囲を大きく狭めて、視界画像の一部の領域を抽出し、抽出した領域を拡大して記憶対象として記憶させると、記憶対象の再生の初期に、視聴者は被写体および作業の全体を把握しにくく、画像を見てどの作業であるか、あるいは被写体のどの部分であるかを把握することが困難になるおそれがある。本実施形態のように抽出範囲の縮小を段階的に行い、抽出された領域の拡大を段階的に行って記憶対象とすることにより、記憶対象の再生時には表示倍率(拡大倍率)が徐々に上がることになり、再生の初期において、視聴者は被写体および作業の全体を把握することが容易となるため、上記の不都合を回避することができる。 In addition, for example, when the extraction range is greatly narrowed from the initial stage of gaze (while the dwell time of the gaze position is short), a partial area of the view image is extracted, and the extracted area is enlarged and stored as a storage target In the initial stage of reproduction of the storage target, the viewer may have difficulty grasping the subject and the entire work, and it may become difficult to grasp which work or which part of the subject is viewed by viewing the image. . As in the present embodiment, the extraction range is reduced stepwise and the extracted area is expanded stepwise to be the storage target, so that the display magnification (magnification magnification) gradually increases when the storage target is reproduced. In the initial stage of reproduction, the viewer can easily grasp the subject and the entire work, so that the above-mentioned inconvenience can be avoided.
〔被写体領域の抽出のバリエーション(2)〕
図11は、S3で取得される視界画像、視線情報および音声情報のさらに他の例を示している。上述したS7の工程では、記憶対象決定部16が、判別部14によって取得される視線の複数位置の重心の変化に応じて、視界画像から被写体領域を抽出する際の抽出範囲を変化させてもよい。なお、上記重心については、判別部14の注視判断部14bによって求めることができるが、その求め方は上述した通りである。
[Variation of Extraction of Subject Region (2)]
FIG. 11 illustrates still another example of the view image, the line-of-sight information, and the audio information acquired in S3. In the process of S7 described above, even if the storage
図3で示したフローに基づき、撮影者が図11に示す視界画像の中で、ある被写体を注視していると判断された場合(S4、S5)、記憶対象決定部16は、視界画像の中で上記被写体が存在する被写体領域R11を特定し(S6)、視界画像から被写体領域R11を抽出し(S7)、抽出した被写体領域R11を記憶対象として決定する(S8)。図12の上段は、このときの記憶対象の画像、つまり、図11の視界画像から抽出された被写体領域R11の画像(被写体画像)を示している。
If it is determined based on the flow shown in FIG. 3 that the photographer is gazing at a certain subject in the view image shown in FIG. 11 (S4, S5), the storage
次に、被写体に対してシールを左側から貼り合わせる作業に伴い、撮影者が被写体の左側を注視すると、視線解析部14aで検出される視線の複数位置(例えば直近の10点の視線位置)の重心が移動する。注視判断部14bにより、視線の複数位置の重心の変化が認識されると、記憶対象決定部16は、視界画像から、被写体領域R11の中で撮影者の視線の重心が位置している領域、つまり、撮影者が注視している左側の領域R12を抽出し(S7)、これを拡大して記憶対象とする(S8)。図12の中段は、このときの記憶対象の画像、つまり、図11の視界画像から抽出された領域R12の画像(拡大画像)を示している。
Next, when the photographer gazes at the left side of the subject along with the work of attaching the seal to the subject from the left side, the eye
さらに、被写体に対してシールの右側を貼り合わせるべく、被写体の右側を注視すると、視線解析部14aで検出される視線の複数位置(例えば直近の10点の視線位置)の重心も右側に移動する。注視判断部14bにより、視線の複数位置の重心の変化が認識されると、記憶対象決定部16は、視界画像から、被写体領域R11の中で撮影者の視線の重心が位置している領域、つまり、撮影者が注視している右側の領域R13を抽出し(S7)、これを拡大して記憶対象とする(S8)。図12の下段は、このときの記憶対象の画像、つまり、図11の視界画像から抽出された領域R13の画像(拡大画像)を示している。
Furthermore, when sticking the right side of the sticker to the subject, if you gaze at the right side of the subject, the centers of gravity of multiple positions of the line of sight detected by the line of
シール貼りの工程で厳密な位置合わせが必要となる場合、同一被写体の中で注視位置が変化することはよくある。上記のように、記憶対象決定部16が、判別部14によって取得される視線の複数位置の重心の変化に応じて、抽出範囲を変化させることにより、撮影者の注視位置が同一被写体内で移動する場合でも、それに追随して抽出範囲を変化させて注視位置の画像を抽出し、抽出した画像を拡大して記憶対象を得ることができる。これにより、記憶対象の再生時に、重要な位置を拡大した画像を視聴者に提供(表示)して、重要な情報を確実に視聴者に伝えることができる。また、再生時に、撮影者の視線の重心位置を表示画像の中心に持ってくることができるため、撮影者の意図を的確に反映した画像を表示させて、視聴者に情報を伝えることができる。
When strict alignment is required in the sealing process, the gaze position often changes in the same object. As described above, the storage
以上、記憶対象決定部16が、判別部14によって取得される情報(滞留時間、視線の複数位置の重心の変化)に応じて、視界画像から被写体領域を抽出する際の抽出範囲を変化させることにより、視界画像の中から、撮影者の意図を的確に反映した重要な領域だけを抽出して拡大し、再生時に視聴者に提供することができる。これにより、視聴者は、表示画像において、撮影者の意図する重要な領域を直ちに認識し、把握するとともに、表示画像に基づく作業の内容も適切に把握することが可能となる。
As described above, changing the extraction range at the time of extracting the subject region from the view image according to the information (the residence time, the change of the gravity center of the plurality of positions of the gaze) acquired by the
なお、本実施形態では、撮像部2および視線検出部3が眼鏡5に搭載される例について説明したが、例えば視線検出部3を撮像部2に組み込んで構成することも可能である。この場合、撮影者が撮像部2を保持しながら視界画像を撮影することになるが、眼鏡5を用いずに動画マニュアル作成システム1を構成でき、部品点数を削減できる点で有効である。
In the present embodiment, an example in which the
以上、本発明の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で拡張または変更して実施することができる。 As mentioned above, although embodiment of this invention was described, the scope of the present invention is not limited to this, and it can extend or change and carry out within the range which does not deviate from the main point of invention.
本発明は、例えば動画マニュアルを自動で作成するシステムに利用可能である。 The present invention can be used, for example, in a system for automatically creating a video manual.
1 動画マニュアル作成システム
2 撮像部
3 視線検出部
4 マイク(音声入力部)
12 記憶部
14 判別部
14a 視線解析部
14b 注視判断部
15 音声認識部
16 記憶対象決定部
1 movie
12
Claims (11)
前記撮影者の視線情報を検出する視線検出部と、
前記視線情報に基づいて、前記撮影者の注視の有無を判別する判別部と、
前記判別部の判別結果に基づいて、前記視界画像の少なくとも一部を記憶対象として決定する記憶対象決定部と、
前記記憶対象決定部によって決定された前記記憶対象を、動画マニュアルのデータとして記憶する記憶部とを備えていることを特徴とする動画マニュアル作成システム。 An imaging unit that captures a field of view of a photographer as a moving image and acquires a field of view image;
A gaze detection unit that detects gaze information of the photographer;
A determination unit that determines the presence or absence of the gaze of the photographer based on the line-of-sight information;
A storage target determining unit configured to determine at least a part of the view image as a storage target based on the determination result of the determination unit;
And a storage unit configured to store the storage target determined by the storage target determination unit as data of a moving image manual.
前記視線情報に基づいて、前記視界画像における前記撮影者の視線の位置と、前記視線の位置の滞留時間とを求める視線解析部と、
前記視線の位置および前記滞留時間に基づいて、前記撮影者の前記注視状態を判断する注視判断部とを含むことを特徴とする請求項1に記載の動画マニュアル作成システム。 The determination unit
A line-of-sight analysis unit which obtains the position of the line-of-sight of the photographer in the view image and the dwell time of the position of the line-of-sight based on the line-of-sight information;
The movie manual creation system according to claim 1, further comprising: a gaze determination unit that determines the gaze condition of the photographer based on the position of the gaze and the staying time.
前記音声入力部によって入力された音声を認識してテキストデータに変換する音声認識部とをさらに備え、
前記記憶対象決定部は、前記テキストデータを、前記視界画像の少なくとも一部に合成して、前記記憶対象を決定することを特徴とする請求項1から9のいずれかに記載の動画マニュアル作成システム。 A voice input unit to which the voice of the photographer is input;
And a voice recognition unit that recognizes voice input by the voice input unit and converts the voice into text data.
The moving picture manual creation system according to any one of claims 1 to 9, wherein the storage target determination unit combines the text data with at least a part of the view image to determine the storage target. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018002062A JP2019121991A (en) | 2018-01-10 | 2018-01-10 | Moving image manual preparing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018002062A JP2019121991A (en) | 2018-01-10 | 2018-01-10 | Moving image manual preparing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019121991A true JP2019121991A (en) | 2019-07-22 |
Family
ID=67306537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018002062A Pending JP2019121991A (en) | 2018-01-10 | 2018-01-10 | Moving image manual preparing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019121991A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023085124A1 (en) * | 2021-11-15 | 2023-05-19 | 株式会社Nttドコモ | Information processing device |
-
2018
- 2018-01-10 JP JP2018002062A patent/JP2019121991A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023085124A1 (en) * | 2021-11-15 | 2023-05-19 | 株式会社Nttドコモ | Information processing device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8964066B2 (en) | Apparatus and method for generating image including multiple people | |
JP4725595B2 (en) | Video processing apparatus, video processing method, program, and recording medium | |
US8976255B2 (en) | Imaging apparatus | |
KR20190015573A (en) | Image acquisition system, apparatus and method for auto focus adjustment based on eye tracking | |
JP6731616B2 (en) | Virtual makeup device, virtual makeup method, and virtual makeup program | |
JPWO2016021034A1 (en) | 3D gaze point location algorithm | |
WO2015035745A1 (en) | Information observation method and information observation device | |
US20210004081A1 (en) | Information processing apparatus, information processing method, and program | |
CN109600555A (en) | A kind of focusing control method, system and photographing device | |
CN109799899B (en) | Interaction control method and device, storage medium and computer equipment | |
TW201814356A (en) | Head-mounted display apparatus and lens position adjusting method thereof | |
CN112840379A (en) | Information processing apparatus, information processing method, and program | |
JP2011135527A (en) | Digital camera | |
JP3307075B2 (en) | Imaging equipment | |
JP2019121991A (en) | Moving image manual preparing system | |
JP6494455B2 (en) | Video processing apparatus, video processing method, and program | |
JP2006267767A (en) | Image display device | |
TW202318342A (en) | Image capturing system and method for adjusting focus | |
CN115103094A (en) | Camera module far-view angle adjusting method and system based on fixation point | |
CN111736692B (en) | Display method, display device, storage medium and head-mounted device | |
JP2000132329A (en) | Device and method for recognizing surface and virtual image solid synthesizer | |
US10783853B2 (en) | Image provision device, method and program that adjusts eye settings based on user orientation | |
JP2000182058A (en) | Three-dimensional motion input method and three- dimensional motion input system | |
JP2002094980A (en) | Video image projection system | |
US20230254466A1 (en) | Control device |