JP2019164620A - Determination device, determination method, and determination program - Google Patents

Determination device, determination method, and determination program Download PDF

Info

Publication number
JP2019164620A
JP2019164620A JP2018052437A JP2018052437A JP2019164620A JP 2019164620 A JP2019164620 A JP 2019164620A JP 2018052437 A JP2018052437 A JP 2018052437A JP 2018052437 A JP2018052437 A JP 2018052437A JP 2019164620 A JP2019164620 A JP 2019164620A
Authority
JP
Japan
Prior art keywords
unit
imaging
image
determination
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018052437A
Other languages
Japanese (ja)
Other versions
JP6694907B2 (en
Inventor
秉哲 ▲裴▼
秉哲 ▲裴▼
Byung-Chull Bae
翔太 斎藤
Shota Saito
翔太 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2018052437A priority Critical patent/JP6694907B2/en
Publication of JP2019164620A publication Critical patent/JP2019164620A/en
Application granted granted Critical
Publication of JP6694907B2 publication Critical patent/JP6694907B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To easily generate content through use of marker-less AR.SOLUTION: An extraction unit 151 extracts a feature point from a predetermined region within an image captured by an imaging unit 13. A calculation unit 152 calculates an angle between a feature surface which is a virtual surface generated on the basis of the feature point and a horizontal surface with respect to an imaging surface of the imaging unit 13. A determination unit 153 determines whether or not a predetermined condition concerning availability of the image in the predetermined region captured by the imaging unit 13 as a marker of marker-less AR is satisfied, on the basis of the feature point and the angle.SELECTED DRAWING: Figure 2

Description

本発明は、判定装置、判定方法及び判定プログラムに関する。   The present invention relates to a determination device, a determination method, and a determination program.

従来、画像から所定の対象を認識し、当該画像にオブジェクトを重畳表示するAR(Augmented Reality)技術が知られている。また、AR技術の方式には、マーカAR及びマーカレスARがある。   Conventionally, an AR (Augmented Reality) technique for recognizing a predetermined target from an image and displaying an object superimposed on the image is known. In addition, the AR technology methods include a marker AR and a markerless AR.

マーカARは、QR(Quick Response)コード(登録商標)等の、コンピュータによって認識されることを目的として作成された特定の認識対象を利用する方式である。一方、マーカレスARは、QRコードのような特定の認識対象を利用することなく、あらかじめ設定された任意の画像を認識対象とする方式である。また、マーカレスARを利用したコンテンツを作成するためのツールが知られている(例えば、非特許文献1及び2を参照)。   The marker AR is a method that uses a specific recognition target created for the purpose of being recognized by a computer, such as a QR (Quick Response) code (registered trademark). On the other hand, the markerless AR is a method in which an arbitrary image set in advance is used as a recognition target without using a specific recognition target such as a QR code. Also, tools for creating content using markerless AR are known (see, for example, Non-Patent Documents 1 and 2).

ptc、“Vuforia”、[online]、[平成30年3月6日検索]、インターネット(https://developer.vuforia.com/)ptc, “Vuforia”, [online], [Search March 6, 2018], Internet (https://developer.vuforia.com/) CYBERNET、“SmartAR”、[online]、[平成30年3月6日検索]、インターネット(http://www.cybernet.co.jp/ar-vr/products/smartar/)CYBERNET, “SmartAR”, [online], [Search March 6, 2018], Internet (http://www.cybernet.co.jp/ar-vr/products/smartar/)

しかしながら、従来の技術には、マーカレスARを利用したコンテンツを容易に作成することが困難な場合があるという問題がある。例えば、マーカレスARを利用したコンテンツを作成する場合、認識精度を向上させるためには、認識対象に適した画像を用意する必要がある。ここで、従来のツールを利用する場合、用意した画像が認識対象に適しているか否かは、当該画像をツールに取り込んだ後に判断される。そのため、認識対象に適した画像を、ツールへの取り込みの前に用意するためには、一定以上の知識や技術が求められ、特に初心者にとっては、マーカレスARを利用したコンテンツを作成することが困難になる場合がある。   However, the conventional technology has a problem that it may be difficult to easily create content using the markerless AR. For example, when creating content using markerless AR, it is necessary to prepare an image suitable for a recognition target in order to improve recognition accuracy. Here, when a conventional tool is used, whether or not the prepared image is suitable for the recognition target is determined after the image is taken into the tool. For this reason, in order to prepare an image suitable for a recognition target before importing into a tool, a certain level of knowledge and technology is required. Especially for beginners, it is difficult to create content using markerless AR. It may become.

実施形態の判定装置は、抽出部と、計算部と、判定部とを有する。抽出部は、画像を撮像する撮像部によって撮像された画像内の所定の領域から特徴点を抽出する。計算部は、特徴点を基に生成される仮想的な面である特徴面及び水平面と撮像部の撮像面との間の角度を計算する。判定部は、撮像部によって撮像される所定の領域の画像の、マーカレスARのマーカとしての可用性に関する所定の条件が満たされているか否かを、特徴点及び角度を基に判定する。   The determination apparatus according to the embodiment includes an extraction unit, a calculation unit, and a determination unit. The extraction unit extracts a feature point from a predetermined region in the image captured by the imaging unit that captures an image. The calculation unit calculates an angle between a feature plane and a horizontal plane, which are virtual planes generated based on the feature points, and an imaging plane of the imaging unit. The determination unit determines whether or not a predetermined condition regarding availability as a markerless AR marker of an image of a predetermined region captured by the imaging unit is satisfied based on the feature point and the angle.

図1は、第1の実施形態に係る判定装置の概要について説明するための図である。FIG. 1 is a diagram for explaining the outline of the determination apparatus according to the first embodiment. 図2は、第1の実施形態に係る判定装置の構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of the determination apparatus according to the first embodiment. 図3は、第1の実施形態に係る判定装置の画面の一例を示す図である。FIG. 3 is a diagram illustrating an example of a screen of the determination apparatus according to the first embodiment. 図4は、第1の実施形態に係る判定装置の画面の一例を示す図である。FIG. 4 is a diagram illustrating an example of a screen of the determination apparatus according to the first embodiment. 図5は、第1の実施形態に係る判定装置の画面の一例を示す図である。FIG. 5 is a diagram illustrating an example of a screen of the determination apparatus according to the first embodiment. 図6は、第1の実施形態に係る判定装置の画面の一例を示す図である。FIG. 6 is a diagram illustrating an example of a screen of the determination apparatus according to the first embodiment. 図7は、第1の実施形態に係る判定装置の画面の一例を示す図である。FIG. 7 is a diagram illustrating an example of a screen of the determination apparatus according to the first embodiment. 図8は、第1の実施形態に係る判定装置の画面の一例を示す図である。FIG. 8 is a diagram illustrating an example of a screen of the determination apparatus according to the first embodiment. 図9は、第1の実施形態に係る判定装置の処理の流れを示すフローチャートである。FIG. 9 is a flowchart showing a flow of processing of the determination apparatus according to the first embodiment.

以下に、本願に係る判定装置、判定方法及び判定プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。なお、以降の説明では、マーカレスARにおける認識対象の画像を「マーカ」と呼ぶ場合がある。   Hereinafter, embodiments of a determination device, a determination method, and a determination program according to the present application will be described in detail with reference to the drawings. In addition, this invention is not limited by embodiment described below. In the following description, an image to be recognized in the markerless AR may be referred to as a “marker”.

(第1の実施形態)
まず、図1を用いて、本実施形態の判定装置の概要について説明する。図1は、第1の実施形態に係る判定装置の概要について説明するための図である。図1に示すように、判定装置10は、ユーザ10aによって所持さている。例えば、判定装置10は、タブレット端末、スマートフォン等である。
(First embodiment)
First, the outline | summary of the determination apparatus of this embodiment is demonstrated using FIG. FIG. 1 is a diagram for explaining the outline of the determination apparatus according to the first embodiment. As shown in FIG. 1, the determination apparatus 10 is possessed by a user 10a. For example, the determination device 10 is a tablet terminal, a smartphone, or the like.

また、判定装置10は、判定装置10に備えられた撮像部を使って撮像した画像を表示部12に表示することができる。ここでは、判定装置10には、撮像部としてカメラが備えられているものとする。図1の例では、判定装置10は、設備20の周辺の光景を撮像している。なお、判定装置10の撮像対象は、マーカレスARの認識対象を含むものであればよく、設備20に限られず、サーバ装置、制御盤、プリンタ等の人工物であってもよいし、自然物であってもよい。   Further, the determination apparatus 10 can display an image captured using the imaging unit provided in the determination apparatus 10 on the display unit 12. Here, it is assumed that the determination apparatus 10 includes a camera as an imaging unit. In the example of FIG. 1, the determination apparatus 10 captures a scene around the facility 20. The imaging target of the determination device 10 is not limited to the facility 20 as long as it includes a markerless AR recognition target, and may be an artificial object such as a server device, a control panel, or a printer, or a natural object. May be.

判定装置10は、撮像した画像内の所定の領域が、マーカとしての使用可能であるか否かを判定する判定処理を行い、判定結果をユーザ10aに提示する。図1に示すように、判定装置10は、各ボタンを介してユーザ10aの操作を受け付ける。また、判定装置10は、ユーザ10aに情報を提示するためのオブジェクトを、撮像した画像に重畳表示する。   The determination apparatus 10 performs a determination process for determining whether or not a predetermined area in the captured image can be used as a marker, and presents the determination result to the user 10a. As shown in FIG. 1, the determination apparatus 10 receives an operation of the user 10a through each button. Moreover, the determination apparatus 10 superimposes and displays an object for presenting information to the user 10a on the captured image.

まず、スタートボタン121bが押下されると、判定装置10は処理を開始する。ここで、判定装置10は、ユーザ10aからマーカとして利用する領域の指定を受け付ける。例えば、ユーザ10aが撮像画像上の2点を指定すると、判定装置10は、当該2点を対頂点とする矩形の領域をマーカとして利用する領域に設定し、当該領域を示す枠122aを表示する、また、リセットボタン121aが押下された場合は、指定された領域がリセットされる。   First, when the start button 121b is pressed, the determination apparatus 10 starts processing. Here, the determination apparatus 10 receives designation of an area to be used as a marker from the user 10a. For example, when the user 10a designates two points on the captured image, the determination apparatus 10 sets a rectangular area having the two points as the opposite vertices as an area to be used as a marker, and displays a frame 122a indicating the area. When the reset button 121a is pressed, the designated area is reset.

次に、特徴点抽出ボタン121cが押下されると、判定装置10は、領域内の特徴点を抽出する。なお、判定装置10は、領域外の特徴点を同時に抽出してもよい。例えば、判定装置10は、画像のエッジ部分を特徴点として抽出する。この場合、物体の角や線の部分、及び明暗や色の差が明確に表れている部分ほど特徴点として抽出されやすい。また、複数の特徴点が同一平面上に存在している方が認識用の画像として望ましい。ここで、判定装置10は、領域内から十分な特徴点を抽出することができなかった場合、領域指定のやり直しを促すメッセージを表示する。   Next, when the feature point extraction button 121c is pressed, the determination apparatus 10 extracts feature points in the region. Note that the determination apparatus 10 may simultaneously extract feature points outside the region. For example, the determination apparatus 10 extracts an edge portion of the image as a feature point. In this case, the corners and line portions of the object, and portions where the difference in brightness and color clearly appear are more easily extracted as feature points. Further, it is desirable that a plurality of feature points exist on the same plane as an image for recognition. Here, when the sufficient feature points cannot be extracted from the area, the determination apparatus 10 displays a message that prompts the user to specify the area again.

また、判定装置10は、抽出した特徴点を点122bとして表示する。さらに、枠122aの一部又は全部が、判定装置10のカメラの撮像範囲からはみ出した場合、領域の一部又は全部が撮像範囲に入っていない旨のメッセージを表示する。   Moreover, the determination apparatus 10 displays the extracted feature points as points 122b. Further, when a part or all of the frame 122a protrudes from the imaging range of the camera of the determination apparatus 10, a message indicating that a part or all of the area is not within the imaging range is displayed.

さらに、判定装置10は、カメラの姿勢が正しいか否かを判断するための処理を行う。カメラが水平、かつカメラの撮像面と抽出した特徴点から生成される仮想的な面である特徴面とが平行である場合に、判定装置10は、カメラの姿勢が正しいと判断する。   Furthermore, the determination apparatus 10 performs a process for determining whether the camera posture is correct. When the camera is horizontal and the imaging plane of the camera is parallel to the feature plane that is a virtual plane generated from the extracted feature points, the determination apparatus 10 determines that the posture of the camera is correct.

判定装置10は、カメラが水平かつ、特徴面とカメラの撮像面が平行であるか否かを判断するための角度を計算する。具体的には、判定装置10は、特徴面及び水平面と、カメラの撮像面との間の角度を計算する。なお、判定装置10は、ジャイロセンサを使って判定装置10の水平面との間の角度を計算することができる。また、特徴面とカメラの撮像面が平行であることは、特徴面とカメラの光軸が垂直であることと同意である。   The determination device 10 calculates an angle for determining whether or not the camera is horizontal and the feature surface and the imaging surface of the camera are parallel. Specifically, the determination apparatus 10 calculates an angle between the feature plane and the horizontal plane and the imaging plane of the camera. In addition, the determination apparatus 10 can calculate the angle between the horizontal plane of the determination apparatus 10 using a gyro sensor. Further, the fact that the feature plane and the imaging plane of the camera are parallel is the same as the fact that the feature plane and the optical axis of the camera are perpendicular.

そして、判定装置10は、計算した角度が所定の範囲内にある場合、キャプチャボタン121dを操作可能に制御する。また、判定装置10は、計算した角度が所定の範囲内にない場合、キャプチャボタン121dを操作不可能に制御し、角度が水平又は垂直とみなせる範囲内となるように、カメラの姿勢の修正を促すメッセージを表示する。   Then, when the calculated angle is within a predetermined range, the determination device 10 controls the capture button 121d to be operable. In addition, when the calculated angle is not within the predetermined range, the determination apparatus 10 controls the capture button 121d so that it cannot be operated, and corrects the posture of the camera so that the angle is within a range that can be regarded as horizontal or vertical. Display a prompt message.

また、判定装置10は、特徴面にグリッド122cを重ねて表示する。また、判定装置10は、マーク122dを仮想的な撮像面に表示する。また、判定装置10は、マーク122eを、特徴面に表示する。このとき、判定装置10は、仮想的な撮像面と特徴面が平行になった場合に、マーク122dとマーク122eが重なり合うように表示する。また、マーク122dとマーク122eとの間の距離は、仮想的な撮像面と特徴面が平行であるほど小さくなっていく。また、マーク122d及びマーク122eは、それぞれ第1のマーク及び第2のマークの一例である。   Moreover, the determination apparatus 10 displays the grid 122c on the feature plane. Moreover, the determination apparatus 10 displays the mark 122d on a virtual imaging surface. Moreover, the determination apparatus 10 displays the mark 122e on the feature surface. At this time, the determination apparatus 10 displays the mark 122d and the mark 122e so as to overlap when the virtual imaging surface and the feature surface are parallel to each other. Further, the distance between the mark 122d and the mark 122e decreases as the virtual imaging surface and the feature surface become parallel. The marks 122d and 122e are examples of the first mark and the second mark, respectively.

また、キャプチャボタン121dが押下されると、判定装置10はカメラによって撮像されている画像をマーカ用画像として取得する。このとき、判定装置10は、さらに、撮像範囲を広げた画像を編集用画像として取得する。判定装置10は、撮像範囲を広げた画像を取得するため、ユーザ10aに対し、カメラを引くように指示するメッセージを表示してもよい。なお、マーカ用画像及び編集用画像は、それぞれ第1の画像及び第2の画像の一例である。   When the capture button 121d is pressed, the determination device 10 acquires an image captured by the camera as a marker image. At this time, the determination apparatus 10 further acquires an image with an expanded imaging range as an editing image. The determination apparatus 10 may display a message instructing the user 10a to pull the camera in order to acquire an image with an expanded imaging range. The marker image and the editing image are examples of the first image and the second image, respectively.

例えば、図1の例では、マーカ画像には枠122aがアップで表示され、編集用画像には設備20及び物体30の両方が表示される。マーカ画像は、マーカレスARのマーカの生成に利用される。一方、編集用画像は、マーカに対してARオブジェクトを配置する際の目印として利用される。   For example, in the example of FIG. 1, the frame 122a is displayed up in the marker image, and both the facility 20 and the object 30 are displayed in the editing image. The marker image is used to generate a markerless AR marker. On the other hand, the editing image is used as a mark when the AR object is arranged with respect to the marker.

(第1の実施形態の判定装置の構成)
図2を用いて、判定装置10の構成について説明する。図2は、第1の実施形態に係る判定装置の構成の一例を示す図である。図2に示すように、判定装置10は、入力部11、表示部12、撮像部13、記憶部14及び制御部15を有する。
(Configuration of the determination apparatus according to the first embodiment)
The configuration of the determination apparatus 10 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of the configuration of the determination apparatus according to the first embodiment. As illustrated in FIG. 2, the determination device 10 includes an input unit 11, a display unit 12, an imaging unit 13, a storage unit 14, and a control unit 15.

入力部11は、ユーザからのデータの入力を受け付ける。入力部11は、例えば、マウスやキーボード等の入力装置である。また、表示部12は、画面の表示を行うディスプレイ等の表示装置である。なお、入力部11及び表示部12は、タッチパネルディスプレイであってもよい。撮像部13は、画像を撮像する。例えば、撮像部13はカメラである。   The input unit 11 receives data input from the user. The input unit 11 is an input device such as a mouse or a keyboard, for example. The display unit 12 is a display device such as a display that displays a screen. The input unit 11 and the display unit 12 may be a touch panel display. The imaging unit 13 captures an image. For example, the imaging unit 13 is a camera.

記憶部14は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等の記憶装置である。記憶部14は、判定装置10で実行されるOS(Operating System)やプログラムを記憶する。さらに、記憶部14は、プログラムの実行で用いられる各種情報を記憶する。   The storage unit 14 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), an optical disk, a RAM (Random Access Memory), a flash memory, or an NVSRAM (Non Volatile Static Random Access Memory). The storage unit 14 stores an OS (Operating System) and a program executed by the determination apparatus 10. Furthermore, the memory | storage part 14 memorize | stores the various information used by execution of a program.

制御部15は、判定装置10を制御する。制御部15は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等である。例えば、制御部15は、抽出部151、計算部152、判定部153、設定部154、表示制御部155及び取得部156として機能する。   The control unit 15 controls the determination device 10. The control unit 15 is a CPU (Central Processing Unit), an MPU (Micro Processing Unit), an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or the like. For example, the control unit 15 functions as an extraction unit 151, a calculation unit 152, a determination unit 153, a setting unit 154, a display control unit 155, and an acquisition unit 156.

抽出部151は、撮像部13によって撮像された画像内の所定の領域から特徴点を抽出する。抽出部151は、画像のエッジ部分を特徴点として抽出することができる。また、抽出部151は、ユーザによって指定された領域の特徴点を抽出してもよいし、画像の全領域の特徴点を抽出してもよい。   The extraction unit 151 extracts feature points from a predetermined region in the image captured by the imaging unit 13. The extraction unit 151 can extract the edge portion of the image as a feature point. In addition, the extraction unit 151 may extract the feature points of the area specified by the user, or may extract the feature points of the entire area of the image.

計算部152は、特徴点を基に生成される仮想的な面である特徴面及び水平面と撮像部13の撮像面との間の角度を計算する。まず、計算部152は、ユークリッド復元を用いて、撮像部13の撮像面を特定する。さらに、計算部152は、逆投影により領域を含む特徴面を特定する。そして、計算部152は、特定した特徴面と撮像面との間の角度を計算する。また、計算部152ジャイロセンサを用いて、水平面と撮像面との間の角度を計算することができる。   The calculation unit 152 calculates an angle between a feature plane and a horizontal plane that are virtual planes generated based on the feature points and the imaging plane of the imaging unit 13. First, the calculation unit 152 identifies the imaging surface of the imaging unit 13 using Euclidean restoration. Furthermore, the calculation unit 152 specifies a feature plane including the region by back projection. Then, the calculation unit 152 calculates an angle between the identified feature plane and the imaging plane. In addition, the angle between the horizontal plane and the imaging plane can be calculated using the calculation unit 152 gyro sensor.

判定部153は、撮像部13によって撮像される所定の領域の画像の、マーカレスARのマーカとしての可用性に関する所定の条件が満たされているか否かを、特徴点及び角度を基に判定する。また、判定部153は、設定部154によって設定された所定の領域の少なくとも一部が撮像部13の撮像範囲から出ている場合に、所定の条件が満たされていないと判定する。   The determination unit 153 determines, based on the feature point and the angle, whether or not a predetermined condition regarding the availability of the image of the predetermined area captured by the imaging unit 13 as the markerless AR marker is satisfied. The determination unit 153 determines that the predetermined condition is not satisfied when at least a part of the predetermined region set by the setting unit 154 is out of the imaging range of the imaging unit 13.

また、判定部153は、領域に含まれる特徴点の数が所定の閾値以下である場合、又は角度が所定の範囲内にない場合に、所定の条件が満たされていないと判定する。例えば、判定部153は、領域に含まれる特徴点が5個以下の場合に条件が満たされていないと判定する。また、例えば、判定部153は、特徴面と撮像面との間の角度が−2°から2°の範囲にない場合に条件が満たされていないと判定する。また、水平面と撮像面との間の角度が88°から92°の範囲にない場合に条件が満たされていないと判定する。   The determination unit 153 determines that the predetermined condition is not satisfied when the number of feature points included in the region is equal to or smaller than the predetermined threshold value or when the angle is not within the predetermined range. For example, the determination unit 153 determines that the condition is not satisfied when the number of feature points included in the region is five or less. For example, the determination unit 153 determines that the condition is not satisfied when the angle between the feature surface and the imaging surface is not in the range of −2 ° to 2 °. Further, when the angle between the horizontal plane and the imaging surface is not in the range of 88 ° to 92 °, it is determined that the condition is not satisfied.

設定部154は、ユーザによって指定された領域を、所定の領域に設定する。設定部154は、撮像部13によって撮影された画像内の、ユーザによって指定された2点を対頂点とする矩形の領域を所定の領域に設定することができる。設定部154は、ユーザによる指定がない場合は、自動的に領域を設定してもよい。   The setting unit 154 sets an area designated by the user as a predetermined area. The setting unit 154 can set a rectangular region having two vertices designated by the user in the image captured by the imaging unit 13 as a predetermined region. The setting unit 154 may automatically set the area when there is no designation by the user.

表示制御部155は、撮像部13によって撮像された画像を表示部12に表示させ、判定部153によって所定の条件が満たされていないと判定された場合、所定の条件が満たされていない旨のメッセージを表示部12に表示させる。また、表示制御部155は、領域を示す枠122a、特徴面を示すグリッド122c、及び特徴点を示す点122bを、撮像部13によって撮像された画像に重ねて表示させる。また、表示制御部155は、撮像部13の仮想的な撮像面にあるマーク122dと、特徴面に平行であって、仮想的な撮像面と特徴面が平行になった場合に、マーク122dと重なり合うマークeと、をさらに表示させる。   The display control unit 155 displays the image captured by the imaging unit 13 on the display unit 12, and when the determination unit 153 determines that the predetermined condition is not satisfied, the display control unit 155 indicates that the predetermined condition is not satisfied. A message is displayed on the display unit 12. In addition, the display control unit 155 displays a frame 122a indicating a region, a grid 122c indicating a feature plane, and a point 122b indicating a feature point in an overlapping manner on the image captured by the imaging unit 13. In addition, the display control unit 155 is configured so that the mark 122d on the virtual imaging surface of the imaging unit 13 is parallel to the feature surface and the mark 122d when the virtual imaging surface and the feature surface are parallel to each other. The overlapping mark e is further displayed.

ここで、図3から図7を用いて、表示制御部155が表示部12に表示させる各画面について説明する。図3から7は、第1の実施形態に係る判定装置の画面の一例を示す図である。まず、図3に示すように、スタートボタン121bが押下されると、表示制御部155は、操作を説明するためのメッセージを表示させる。   Here, each screen displayed on the display unit 12 by the display control unit 155 will be described with reference to FIGS. 3 to 7. 3 to 7 are diagrams illustrating an example of a screen of the determination apparatus according to the first embodiment. First, as shown in FIG. 3, when the start button 121b is pressed, the display control unit 155 displays a message for explaining the operation.

また、図4に示すように、表示制御部155は、指定された領域を示す枠122aを表示させる。さらに、表示制御部155は、特徴点抽出ボタン121cが押下されると、抽出した特徴点を示す点122bを表示させる。このとき、枠122a内の特徴点の数が所定の閾値以下である場合、表示制御部155は、「特徴点抽出失敗、やり直してください。」というメッセージを表示させる。   As shown in FIG. 4, the display control unit 155 displays a frame 122a indicating the designated area. Further, when the feature point extraction button 121c is pressed, the display control unit 155 displays a point 122b indicating the extracted feature point. At this time, when the number of feature points in the frame 122a is equal to or smaller than a predetermined threshold, the display control unit 155 displays a message “feature point extraction failure, please try again”.

また、図5に示すように、枠122aの一部又は全部が撮像範囲から出ている場合、表示制御部155は、「画面から特徴点がはみ出しています。」というメッセージを表示させる。   As shown in FIG. 5, when a part or all of the frame 122a is out of the imaging range, the display control unit 155 displays a message “A feature point is protruding from the screen”.

また、図6に示すように、水平面と撮像面との角度が所定の範囲にない場合、表示制御部155は、「端末を水平にしてください。」というメッセージを表示させる。さらに、図7に示すように、特徴面と撮像面の角度が所定の範囲にない場合、表示制御部155は、「端末を垂直にしてください。」というメッセージを表示させる。また、図7の例では、特徴面と撮像面との関係が平行から大きく離れているため、図6等の例と比べて、マーク122dとマーク122eの間の距離が大きい。   As shown in FIG. 6, when the angle between the horizontal plane and the imaging surface is not within a predetermined range, the display control unit 155 displays a message “please level the terminal”. Furthermore, as shown in FIG. 7, when the angle between the feature plane and the imaging plane is not within a predetermined range, the display control unit 155 displays a message “Please keep the terminal vertical”. In the example of FIG. 7, the relationship between the feature surface and the imaging surface is far from parallel, so the distance between the mark 122d and the mark 122e is larger than in the example of FIG.

取得部156は、判定部153によって所定の条件が満たされていると判定された場合に、撮像部13によって撮像されたマーカ用画像を、所定の領域を特定する情報とともに取得する。また、取得部156は、所定の領域を含む画像であって、マーカ用画像よりも撮像範囲が広い編集用画像をさらに取得する。   When the determination unit 153 determines that the predetermined condition is satisfied, the acquisition unit 156 acquires the marker image captured by the imaging unit 13 together with information specifying a predetermined region. In addition, the acquisition unit 156 further acquires an editing image that includes a predetermined region and has a wider imaging range than the marker image.

例えば、図8に示すように、取得部156は、編集用画像として、設備20、枠122a及び物体30の全てが撮像範囲に入るようにした上で画像を取得する。図8は、第1の実施形態に係る判定装置の画面の一例を示す図である。このとき、判定装置10は、ユーザに撮像部13を引くことを促すメッセージを表示してもよいし、撮像範囲が広がるように撮像部13の焦点距離を変化させてもよい。   For example, as illustrated in FIG. 8, the acquisition unit 156 acquires an image as an editing image after all of the equipment 20, the frame 122a, and the object 30 are within the imaging range. FIG. 8 is a diagram illustrating an example of a screen of the determination apparatus according to the first embodiment. At this time, the determination apparatus 10 may display a message that prompts the user to pull the imaging unit 13 or may change the focal length of the imaging unit 13 so that the imaging range is expanded.

(第1の実施形態の処理)
図9を用いて、判定装置10は、ユーザの指定に基づいて撮像した画像内の領域を設定する(ステップS101)。そして、判定装置10は、設定した領域から特徴点を抽出する(ステップS102)。ここで、領域内の特徴点が十分でない場合(ステップS103、No)、判定装置10は、領域指定のやり直しを促すメッセージを表示し(ステップS104)、ステップS101の処理に戻る。
(Processing of the first embodiment)
With reference to FIG. 9, the determination apparatus 10 sets a region in an image captured based on a user's designation (step S101). And the determination apparatus 10 extracts a feature point from the set area | region (step S102). Here, when the feature points in the area are not sufficient (step S103, No), the determination apparatus 10 displays a message for prompting redesignation of the area (step S104), and returns to the process of step S101.

一方、領域内の特徴点が十分である場合(ステップS103、Yes)、判定装置10は、特徴面及び水平面と、撮像部13の撮像面との間の角度を基に、撮像部13の姿勢が正しいか否かを判定する(ステップS105)。ここで、撮像部13の姿勢が正しくない場合(ステップS105、No)、判定装置10は、撮像部13の姿勢の修正を促すメッセージを表示し(ステップS106)、ステップS105の処理に戻る。   On the other hand, when the feature points in the region are sufficient (step S103, Yes), the determination apparatus 10 determines the posture of the imaging unit 13 based on the angle between the feature plane and the horizontal plane and the imaging plane of the imaging unit 13. It is determined whether or not is correct (step S105). Here, when the orientation of the imaging unit 13 is not correct (No at Step S105), the determination apparatus 10 displays a message that prompts the user to correct the orientation of the imaging unit 13 (Step S106), and returns to the process of Step S105.

一方、撮像部13の姿勢が正しい場合(ステップS105、Yes)、領域が撮像部13の撮影範囲内にあるか否かを判定する(ステップS107)。ここで、領域が撮像部13の撮影範囲内にない場合(ステップS107、No)、判定装置10は、領域が撮像部13の撮影範囲内にない旨のメッセージを表示し(ステップS108)、ステップS107の処理に戻る。   On the other hand, when the orientation of the imaging unit 13 is correct (step S105, Yes), it is determined whether or not the region is within the imaging range of the imaging unit 13 (step S107). If the area is not within the imaging range of the imaging unit 13 (step S107, No), the determination apparatus 10 displays a message that the area is not within the imaging range of the imaging unit 13 (step S108). The process returns to S107.

一方、領域が撮像部13の撮影範囲内にある場合(ステップS107、Yes)、判定装置10は、画像を取得する(ステップS109)。このとき、判定装置10は、マーカ用画像及び編集用画像を取得することができる。   On the other hand, when the region is within the imaging range of the imaging unit 13 (step S107, Yes), the determination apparatus 10 acquires an image (step S109). At this time, the determination apparatus 10 can acquire the marker image and the editing image.

(第1の実施形態の効果)
実施形態において、抽出部151は、撮像部13によって撮像された画像内の所定の領域から特徴点を抽出する。また、計算部152は、特徴点を基に生成される仮想的な面である特徴面及び水平面と撮像部13の撮像面との間の角度を計算する。判定部153は、撮像部13によって撮像される所定の領域の画像の、マーカレスARのマーカとしての可用性に関する所定の条件が満たされているか否かを、特徴点及び角度を基に判定する。
(Effects of the first embodiment)
In the embodiment, the extraction unit 151 extracts feature points from a predetermined region in the image captured by the imaging unit 13. In addition, the calculation unit 152 calculates an angle between a feature plane and a horizontal plane that are virtual planes generated based on the feature points and the imaging plane of the imaging unit 13. The determination unit 153 determines, based on the feature point and the angle, whether or not a predetermined condition regarding the availability of the image of the predetermined area captured by the imaging unit 13 as the markerless AR marker is satisfied.

このように、判定装置10は、撮像している画像がマーカレスARのマーカとして利用可能であるか否かを自動的に判定することができる。このため、第1の実施形態によれば、初心者であっても、マーカレスARを利用したコンテンツを容易に作成することができる。   As described above, the determination device 10 can automatically determine whether or not the image being captured can be used as a marker for the markerless AR. For this reason, according to the first embodiment, even a beginner can easily create content using the markerless AR.

設定部154は、ユーザによって指定された領域を、所定の領域に設定する。また、判定部153は、設定部154によって設定された所定の領域の少なくとも一部が撮像部13の撮像範囲から出ている場合に、所定の条件が満たされていないと判定する。これにより、抽出した特徴点が取得される画像に含まれなくなることを防止することができる。   The setting unit 154 sets an area designated by the user as a predetermined area. The determination unit 153 determines that the predetermined condition is not satisfied when at least a part of the predetermined region set by the setting unit 154 is out of the imaging range of the imaging unit 13. This can prevent the extracted feature points from being included in the acquired image.

判定部153は、領域に含まれる特徴点の数が所定の閾値以下である場合、又は角度が所定の範囲内にない場合に、所定の条件が満たされていないと判定する。これにより、マーカ用の画像としての有用性の高い画像を取得することが可能となる。   The determination unit 153 determines that the predetermined condition is not satisfied when the number of feature points included in the region is equal to or smaller than a predetermined threshold value or when the angle is not within the predetermined range. As a result, it is possible to acquire a highly useful image as a marker image.

表示制御部155は、撮像部13によって撮像された画像を表示部12に表示させ、判定部153によって所定の条件が満たされていないと判定された場合、所定の条件が満たされていない旨のメッセージを表示部12に表示させる。これにより、ユーザは、撮像中の画像がマーカ用の画像として不適当であることを認識することができる。   The display control unit 155 displays the image captured by the imaging unit 13 on the display unit 12, and when the determination unit 153 determines that the predetermined condition is not satisfied, the display control unit 155 indicates that the predetermined condition is not satisfied. A message is displayed on the display unit 12. Accordingly, the user can recognize that the image being captured is inappropriate as the marker image.

表示制御部155は、領域を示す枠122a、特徴面を示すグリッド122c、及び特徴点を示す点122bを、撮像部13によって撮像された画像に重ねて表示させる。これにより、ユーザは、撮像面と特徴点が存在する面との関係を直感てきに把握することができる。   The display control unit 155 displays a frame 122a indicating a region, a grid 122c indicating a feature plane, and a point 122b indicating a feature point in an overlapping manner on the image captured by the imaging unit 13. Thus, the user can intuitively grasp the relationship between the imaging surface and the surface where the feature points exist.

表示制御部155は、撮像部13の仮想的な撮像面にあるマーク122dと、特徴面に平行であって、仮想的な撮像面と特徴面が平行になった場合に、マーク122dと重なり合うマークeと、をさらに表示させる。これにより、ユーザは、撮像面と特徴点が存在する面とが正対したことを明確に認識することができる。   The display control unit 155 is a mark that overlaps the mark 122d when the mark 122d on the virtual imaging surface of the imaging unit 13 is parallel to the feature surface and the virtual imaging surface and the feature surface are parallel to each other. e is further displayed. Thereby, the user can clearly recognize that the imaging surface and the surface on which the feature point exists face each other.

取得部156は、判定部153によって所定の条件が満たされていると判定された場合に、撮像部13によって撮像されたマーカ用画像を、所定の領域を特定する情報とともに取得する。これにより、マーカ用の画像としての有用性の高い画像を取得することが可能となる。   When the determination unit 153 determines that the predetermined condition is satisfied, the acquisition unit 156 acquires the marker image captured by the imaging unit 13 together with information specifying a predetermined region. As a result, it is possible to acquire a highly useful image as a marker image.

取得部156は、所定の領域を含む画像であって、マーカ用画像よりも撮像範囲が広い編集用画像をさらに取得する。これにより、マーカ用の画像に加えて編集用の画像を取得することが可能となる。   The acquisition unit 156 further acquires an editing image that is an image including a predetermined area and has a wider imaging range than the marker image. As a result, it is possible to acquire an image for editing in addition to the image for the marker.

設定部154は、撮像部13によって撮影された画像内の、ユーザによって指定された2点を対頂点とする矩形の領域を所定の領域に設定する。これにより、ユーザは直感的に領域を指定することができる。   The setting unit 154 sets a rectangular region having two vertices designated by the user in the image photographed by the imaging unit 13 as a predetermined region. Thereby, the user can specify an area | region intuitively.

なお、本実施形態の判定装置10で実行されるプログラムは、ROM等にあらかじめ組み込まれて提供される。本実施形態の判定装置10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   Note that the program executed by the determination apparatus 10 of the present embodiment is provided by being incorporated in advance in a ROM or the like. The program executed by the determination apparatus 10 according to the present embodiment may be configured to be recorded and provided on a computer-readable recording medium in an installable format or an executable format file.

さらに、本実施形態の判定装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の判定装置10で実行されるプログラムをインターネット等のネットワーク経由で提供又は配布するように構成してもよい。   Furthermore, the program executed by the determination apparatus 10 according to the present embodiment may be configured to be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the program executed by the determination apparatus 10 of the present embodiment may be configured to be provided or distributed via a network such as the Internet.

本実施形態の判定装置10で実行されるプログラムは、上述した各部(抽出部151、計算部152、判定部153、設定部154、表示制御部155、及び取得部156)を含むモジュール構成となっており、実際のハードウェアとしてはCPUが上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、抽出部151、計算部152、判定部153、設定部154、表示制御部155、及び取得部156が主記憶装置上に生成されるようになっている。   The program executed by the determination apparatus 10 of the present embodiment has a module configuration including the above-described units (extraction unit 151, calculation unit 152, determination unit 153, setting unit 154, display control unit 155, and acquisition unit 156). As the actual hardware, the CPU reads the program from the ROM and executes it, so that each unit is loaded onto the main storage device, and the extraction unit 151, the calculation unit 152, the determination unit 153, the setting unit 154, and the display A control unit 155 and an acquisition unit 156 are generated on the main storage device.

本発明の実施形態を説明したが、実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although embodiments of the present invention have been described, the embodiments have been presented by way of example and are not intended to limit the scope of the invention. The embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. The embodiments and the modifications thereof are included in the scope of the invention and the scope of the invention, and are also included in the invention described in the claims and the equivalents thereof.

10 判定装置
10a ユーザ
11 入力部
12 表示部
13 撮像部
14 記憶部
15 制御部
20 設備
30 物体
121a リセットボタン
121b スタートボタン
121c 特徴点抽出ボタン
121d キャプチャボタン
122a 枠
122b 点
122c グリッド
122d、122e マーク
DESCRIPTION OF SYMBOLS 10 Determination apparatus 10a User 11 Input part 12 Display part 13 Imaging part 14 Storage part 15 Control part 20 Equipment 30 Object 121a Reset button 121b Start button 121c Feature point extraction button 121d Capture button 122a Frame 122b Point 122c Grid 122d, 122e mark

Claims (11)

画像を撮像する撮像部によって撮像された画像内の所定の領域から特徴点を抽出する抽出部と、
前記特徴点を基に生成される仮想的な面である特徴面及び水平面と前記撮像部の撮像面との間の角度を計算する計算部と、
前記撮像部によって撮像される前記所定の領域の画像の、マーカレスAR(Augmented Reality)のマーカとしての可用性に関する所定の条件が満たされているか否かを、前記特徴点及び前記角度を基に判定する判定部と、
を有することを特徴とする判定装置。
An extraction unit that extracts a feature point from a predetermined region in an image captured by an imaging unit that captures an image;
A calculation unit that calculates an angle between a feature plane and a horizontal plane that are virtual planes generated based on the feature point and an imaging plane of the imaging unit;
Based on the feature point and the angle, it is determined whether or not a predetermined condition relating to availability of a markerless AR (Augmented Reality) marker of an image of the predetermined area captured by the imaging unit is satisfied. A determination unit;
The determination apparatus characterized by having.
ユーザによって指定された領域を、前記所定の領域に設定する設定部をさらに有し、
前記判定部は、前記設定部によって設定された前記所定の領域の少なくとも一部が前記撮像部の撮像範囲から出ている場合に、前記所定の条件が満たされていないと判定することを特徴とする請求項1に記載の判定装置。
A setting unit that sets an area designated by the user to the predetermined area;
The determination unit determines that the predetermined condition is not satisfied when at least a part of the predetermined region set by the setting unit is out of an imaging range of the imaging unit. The determination apparatus according to claim 1.
前記判定部は、前記領域に含まれる前記特徴点の数が所定の閾値以下である場合、又は前記角度が所定の範囲内にない場合に、前記所定の条件が満たされていないと判定することを特徴とする請求項1又は2に記載の判定装置。   The determination unit determines that the predetermined condition is not satisfied when the number of the feature points included in the region is equal to or smaller than a predetermined threshold or when the angle is not within a predetermined range. The determination apparatus according to claim 1, wherein: 前記撮像部によって撮像された画像を表示部に表示させ、前記判定部によって前記所定の条件が満たされていないと判定された場合、前記所定の条件が満たされていない旨のメッセージを前記表示部に表示させる表示制御部をさらに有することを特徴とする請求項1から3のいずれか1項に記載の判定装置。   An image captured by the imaging unit is displayed on a display unit, and when the determination unit determines that the predetermined condition is not satisfied, a message indicating that the predetermined condition is not satisfied is displayed on the display unit. The determination apparatus according to claim 1, further comprising: a display control unit that displays the display. 前記表示制御部は、前記領域を示す枠、前記特徴面を示すグリッド、及び前記特徴点を示す点を、前記撮像部によって撮像された画像に重ねて表示させることを特徴とする請求項4に記載の判定装置。   5. The display control unit according to claim 4, wherein a frame indicating the region, a grid indicating the feature plane, and a point indicating the feature point are displayed in an overlapping manner on an image captured by the imaging unit. The determination apparatus described. 前記表示制御部は、前記撮像部の仮想的な撮像面にある第1のマークと、前記特徴面に平行であって、前記仮想的な撮像面と前記特徴面が平行になった場合に、前記第1のマークと重なり合う第2のマークと、をさらに表示させることを特徴とする請求項4又は5に記載の判定装置。   The display control unit is parallel to the first mark on the virtual imaging surface of the imaging unit and the feature surface, and when the virtual imaging surface and the feature surface are parallel, The determination apparatus according to claim 4, further displaying a second mark that overlaps the first mark. 前記判定部によって前記所定の条件が満たされていると判定された場合に、前記撮像部によって撮像された第1の画像を、前記所定の領域を特定する情報とともに取得する取得部をさらに有することを特徴とする請求項1から6のいずれか1項に記載の判定装置。   When the determination unit determines that the predetermined condition is satisfied, the acquisition unit further includes an acquisition unit that acquires the first image captured by the imaging unit together with information specifying the predetermined region. The determination apparatus according to claim 1, wherein: 前記取得部は、前記所定の領域を含む画像であって、前記第1の画像よりも撮像範囲が広い第2の画像をさらに取得することを特徴とする請求項7に記載の判定装置。   The determination apparatus according to claim 7, wherein the acquisition unit further acquires a second image that is an image including the predetermined region and has a wider imaging range than the first image. 前記設定部は、前記撮像部によって撮影された画像内の、前記ユーザによって指定された2点を対頂点とする矩形の領域を前記所定の領域に設定することを特徴とする請求項2に記載の判定装置。   The said setting part sets the rectangular area | region which makes the two points | pieces designated by the said user the opposite vertex in the image image | photographed by the said imaging part to the said predetermined area | region. Judgment device. コンピュータによって実行される判定方法であって、
撮像部によって撮像された画像内の所定の領域から特徴点を抽出する抽出工程と、
前記特徴点を基に生成される仮想的な面である特徴面及び水平面と前記撮像部の撮像面との間の角度を計算する計算工程と、
前記撮像部によって撮像される前記所定の領域の画像の、マーカレスAR(Augmented Reality)のマーカとしての可用性に関する所定の条件が満たされているか否かを、前記特徴点及び前記角度を基に判定する判定工程と、
を含むことを特徴とする判定方法。
A determination method executed by a computer,
An extraction step of extracting feature points from a predetermined region in the image captured by the imaging unit;
A calculation step of calculating an angle between a feature plane and a horizontal plane that are virtual planes generated based on the feature points and an imaging plane of the imaging unit;
Based on the feature point and the angle, it is determined whether or not a predetermined condition relating to availability of a markerless AR (Augmented Reality) marker of an image of the predetermined area captured by the imaging unit is satisfied. A determination process;
The determination method characterized by including.
コンピュータを、
撮像部によって撮像された画像内の所定の領域から特徴点を抽出する抽出手段と、
前記特徴点を基に生成される仮想的な面である特徴面及び水平面と前記撮像部の撮像面との間の角度を計算する計算手段と、
前記撮像部によって撮像される前記所定の領域の画像の、マーカレスAR(Augmented Reality)のマーカとしての可用性に関する所定の条件が満たされているか否かを、前記特徴点及び前記角度を基に判定する判定手段と、
として機能させることを特徴とする判定プログラム。
Computer
Extraction means for extracting feature points from a predetermined region in the image captured by the imaging unit;
Calculation means for calculating an angle between a feature plane and a horizontal plane generated based on the feature points and an imaging plane of the imaging unit;
Based on the feature point and the angle, it is determined whether or not a predetermined condition relating to availability of a markerless AR (Augmented Reality) marker of an image of the predetermined area captured by the imaging unit is satisfied. A determination means;
A judgment program characterized by functioning as
JP2018052437A 2018-03-20 2018-03-20 Judgment device, judgment method and judgment program Active JP6694907B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018052437A JP6694907B2 (en) 2018-03-20 2018-03-20 Judgment device, judgment method and judgment program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018052437A JP6694907B2 (en) 2018-03-20 2018-03-20 Judgment device, judgment method and judgment program

Publications (2)

Publication Number Publication Date
JP2019164620A true JP2019164620A (en) 2019-09-26
JP6694907B2 JP6694907B2 (en) 2020-05-20

Family

ID=68064929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018052437A Active JP6694907B2 (en) 2018-03-20 2018-03-20 Judgment device, judgment method and judgment program

Country Status (1)

Country Link
JP (1) JP6694907B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075659A1 (en) * 2020-10-07 2022-04-14 삼성전자 주식회사 Method for displaying augmented reality and electronic device for performing same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112791A (en) * 1997-04-10 1999-04-23 Ricoh Co Ltd Image forming device
JP2015141676A (en) * 2014-01-30 2015-08-03 Kddi株式会社 Guidance display device, guidance display method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11112791A (en) * 1997-04-10 1999-04-23 Ricoh Co Ltd Image forming device
JP2015141676A (en) * 2014-01-30 2015-08-03 Kddi株式会社 Guidance display device, guidance display method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075659A1 (en) * 2020-10-07 2022-04-14 삼성전자 주식회사 Method for displaying augmented reality and electronic device for performing same

Also Published As

Publication number Publication date
JP6694907B2 (en) 2020-05-20

Similar Documents

Publication Publication Date Title
US10964057B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
JP6144364B2 (en) Work support data creation program
WO2018221599A1 (en) Surgical instrument detection system and computer program
JP2018124656A5 (en)
JP2019128715A5 (en) Devices, methods, programs, and systems for setting information related to scanned images
KR101961758B1 (en) 3-Dimensional Contents Providing System, Method and Computer Readable Recoding Medium
JP6780767B2 (en) Inspection support device, inspection support method and program
US10970845B2 (en) Image processing apparatus, image processing method, and storage medium
US10987198B2 (en) Image simulation method for orthodontics and image simulation device thereof
JP2017083550A (en) Information processing apparatus, image projection system, and program
JP2009289112A (en) Work information providing device, work information providing method and program
JP7275552B2 (en) Imaging support device and imaging support method
JP6694907B2 (en) Judgment device, judgment method and judgment program
JP6308309B2 (en) Image processing apparatus, image processing method, and image processing program
US20170059313A1 (en) Image capture device with a calibration function and calibration method of an image capture device
JP2014160413A (en) Data processing device, data processing system and program
US20180220077A1 (en) Information processing apparatus having camera function, display control method thereof, and storage medium
KR101879102B1 (en) Method for implementing augmented reality system
KR101205840B1 (en) An apparatus and a method for setting a setting information of a camera using a chart
JP2020057298A (en) Determination device, determination method, and determination program
US20170069138A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
JP2010146581A (en) Person's image retrieval device
JP6827717B2 (en) Information processing equipment, control methods and programs for information processing equipment
KR20160038375A (en) Contents creation apparatus and method for operating the contents creation apparatus
JP2019204258A (en) Learning data generation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200420

R150 Certificate of patent or registration of utility model

Ref document number: 6694907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250