JP7328361B2 - measuring device - Google Patents

measuring device Download PDF

Info

Publication number
JP7328361B2
JP7328361B2 JP2021570072A JP2021570072A JP7328361B2 JP 7328361 B2 JP7328361 B2 JP 7328361B2 JP 2021570072 A JP2021570072 A JP 2021570072A JP 2021570072 A JP2021570072 A JP 2021570072A JP 7328361 B2 JP7328361 B2 JP 7328361B2
Authority
JP
Japan
Prior art keywords
measurement
unit
image display
display device
measured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021570072A
Other languages
Japanese (ja)
Other versions
JPWO2021141055A1 (en
Inventor
健生 山▲崎▼
隆幸 田村
友貴 ▲高▼谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2021141055A1 publication Critical patent/JPWO2021141055A1/ja
Application granted granted Critical
Publication of JP7328361B2 publication Critical patent/JP7328361B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、複合現実感を利用して測定処理を行う測定装置に関する。 The present invention relates to a measuring device that performs measurement processing using mixed reality.

巻き尺で測定対象製品の長さを測定し、その測定値を目視により確認して、帳簿に転記し、その内容をデータファイルに入力することで、測定対象製品の測定値をデジタルデータとして記録することが一般的に行われている。この手法では、転記ミスなどにより測定値を誤ってデータファイルに記録することがある。 Measure the length of the product to be measured with a tape measure, visually confirm the measured value, transcribe it in a ledger, and enter the content in a data file to record the measured value of the product to be measured as digital data. that is commonly done. In this method, the measured values may be incorrectly recorded in the data file due to transcription errors or the like.

そのため、スマートメジャーを用いて測定対象製品の長さを測定することで、容易かつ正確に測定値をデジタルファイル化することが考えられる。デジタル測定を可能にする技術として、特許文献1に記載の電子巻尺があげられる。 Therefore, by measuring the length of the product to be measured using a smart measure, it is conceivable to easily and accurately convert the measured values into a digital file. As a technology that enables digital measurement, there is an electronic tape measure described in Patent Document 1.

特開昭63-298111号公報JP-A-63-298111

しかしながら、スマートメジャーは、長い距離を測定することに向いておらず、測定対象製品が長い場合、測定をすることができない。 However, smart measures are not suitable for measuring long distances and cannot measure long products.

そこで、上述の課題を解決するために、本発明は、測定対象物の大きさによらずに正確な測定値を取得することができる測定装置を提供することを目的とする。 Accordingly, in order to solve the above-described problems, it is an object of the present invention to provide a measuring apparatus capable of obtaining accurate measured values regardless of the size of the object to be measured.

本発明の測定装置は、測定対象物における指定された基準部分に基づいて、電子的測定値を取得するための測定開始位置を特定する位置特定部と、前記測定対象物における指定された指定部分を測定起点とした前記測定対象物における概略測定値を算出する概略測定値算出部と、前記測定開始位置に基づいて、前記測定対象物における任意の位置までの距離を示す電子的測定値を取得する電子的測定値取得部と、前記概略測定値および前記電子的測定値に基づいて、前記測定対象物に対する最終測定値を算出する測定値算出部と、を備える。 The measuring apparatus of the present invention includes a position specifying unit that specifies a measurement start position for acquiring an electronic measurement value based on a specified reference portion of the measurement object, and a specified portion of the measurement object. and an approximate measurement value calculation unit that calculates an approximate measurement value of the object to be measured using as a measurement starting point, and acquires an electronic measurement value indicating a distance to an arbitrary position on the object to be measured based on the measurement start position. and a measured value calculator that calculates a final measured value for the object based on the rough measured value and the electronic measured value.

この発明によれば、電子的な測理の範囲を小さくすることができる。よって、測定対象物が大きくても正確な測定値を取得することができる。 According to the present invention, the scope of electronic measurement can be reduced. Therefore, accurate measurement values can be obtained even if the object to be measured is large.

本発明によると、測定対象物の大きさによることなく、正確な測定値を取得することができる。 According to the present invention, accurate measurement values can be obtained regardless of the size of the object to be measured.

本実施形態における測定対象物を示す斜視図である。It is a perspective view showing a measurement object in this embodiment. ユーザUに複合現実感による映像を提供する画像表示装置100を用いた測定過程を示す図である。FIG. 4 is a diagram showing a measurement process using an image display device 100 that provides a mixed reality image to a user U. FIG. 測定開始位置S2を示す説明図である。It is an explanatory view showing measurement start position S2. 測定開始位置S2を用いてARメジャーにて測定する処理を示す。FIG. 10 shows a process of measuring with AR measure using the measurement start position S2. 確認用画像X1および確認用画像X2を複合現実感による映像に表示することを示す説明図である。FIG. 10 is an explanatory diagram showing that a confirmation image X1 and a confirmation image X2 are displayed in a mixed reality video; 画像表示装置100の機能構成を示すブロック図である。2 is a block diagram showing the functional configuration of the image display device 100; FIG. 画像表示装置100の動作を示すフローチャートである。4 is a flow chart showing the operation of the image display device 100. FIG. 変形例における測定処理の前半を示す概念図である。It is a conceptual diagram showing the first half of the measurement process in the modification. 変形例における測定処理の後半を示す概念図である。It is a conceptual diagram showing the second half of the measurement process in the modification. 変形例における画像表示装置100aの機能構成を示すブロック図である。FIG. 11 is a block diagram showing the functional configuration of an image display device 100a in a modified example; 本開示の一実施の形態に係る画像表示装置100、100aのハードウェア構成の一例を示す図である。It is a figure showing an example of hardware constitutions of image display devices 100 and 100a concerning one embodiment of this indication.

添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。 Embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and duplicate descriptions are omitted.

図1~図5は、本実施形態における測定方法の概要を説明したものである。これら図面を用いて、本実施形態の測定方法について説明する。図1は、測定対象物である鉄骨Tの斜視図である。図1に示されるとおり、この鉄骨Tは、I形鋼である。この鉄骨Tは、原点Sに位置決めマーカMが添付されている。また、サブマーカSMが、原点Sから所定間隔(例えば50cm)ごとに添付されている。鉄骨Tには、そのウエブに付属物Hが付加されている。 1 to 5 outline the measurement method in this embodiment. The measuring method of this embodiment will be described with reference to these drawings. FIG. 1 is a perspective view of a steel frame T, which is an object to be measured. As shown in FIG. 1, this steel frame T is an I-shaped steel. A positioning marker M is attached to the origin S of the steel frame T. As shown in FIG. Also, submarkers SM are attached from the origin S at predetermined intervals (for example, 50 cm). The steel frame T has appendages H attached to its web.

この鉄骨Tは、数メートルあり、一般のAR(Augmented Reality)メジャーまたはスマートメジャーで測定することが困難である。 This steel frame T is several meters long and is difficult to measure with a general AR (Augmented Reality) measure or smart measure.

そのため、複合現実感による映像を提供する装置を利用して鉄骨Tの一部を撮影し、概略測定値を取得することで、ARメジャー等で測定する範囲を小さくする。なお、本実施形態におけるARメジャーとは、カメラで撮影した測定対象物の指定した範囲を測定する機能を示す。一般的に、ARメジャー機能は、スマートフォンなどで撮影した測定対象物との距離を、カメラの測距機能で測定し、その測定した距離に基づいて、測定対象物を測定することができる。 For this reason, a part of the steel frame T is photographed using a device that provides an image based on mixed reality, and a rough measurement value is obtained, thereby reducing the range to be measured by an AR measure or the like. It should be noted that AR measurement in the present embodiment indicates a function of measuring a specified range of a measurement target photographed by a camera. In general, the AR measure function can measure the distance to a measurement object photographed with a smartphone or the like using the distance measurement function of the camera, and measure the measurement object based on the measured distance.

図2は、ユーザUに複合現実感による映像を提供する画像表示装置100を用いた測定過程を示す図である。図2においては、ユーザUは、移動しながら、画像表示装置100を利用して、鉄骨Tの位置決めマーカMを始点にして測定開始基準位置Pまでを撮影する。画像表示装置100は、自己位置姿勢推定機能を有しており、鉄骨Tの測定を開始すると、鉄骨Tと画像表示装置100との位置関係を推定する。この自己位置姿勢機能は、公知の技術であって、例えばSLAM(Simultaneous Localization and Mapping)と呼ばれる技術を利用することにより実現される。 FIG. 2 is a diagram showing a measurement process using the image display device 100 that provides the user U with a mixed reality image. In FIG. 2, the user U uses the image display device 100 to capture images from the positioning marker M of the steel frame T to the measurement start reference position P while moving. The image display device 100 has a self-position/orientation estimation function, and when the measurement of the steel frame T is started, the positional relationship between the steel frame T and the image display device 100 is estimated. This self-position/posture function is a well-known technique, and is realized by using a technique called SLAM (Simultaneous Localization and Mapping), for example.

本実施形態においては、画像表示装置100は、自己位置姿勢推定機能を実現するために、画像表示装置100が撮影した位置決めマーカMを撮影することで、画像表示装置100と鉄骨Tとの初期位置における相対位置関係を把握することができる。すなわち、画像表示装置100は、自己位置姿勢推定機能により、画像表示装置100の位置情報および位置決めマーカMの位置情報を算出することができる。これら位置情報は、相対的な情報であり、位置決めマーカMの位置情報を原点(0,0)とした場合、画像表示装置100の位置情報(X,Y)を算出する。位置決めマーカMの形状および大きさの情報は予め画像表示装置100は有している。 In the present embodiment, the image display device 100 captures the positioning marker M captured by the image display device 100 in order to realize the self-position/orientation estimation function. It is possible to grasp the relative positional relationship in That is, the image display device 100 can calculate the position information of the image display device 100 and the position information of the positioning marker M by the self-position/orientation estimation function. These position information are relative information, and when the position information of the positioning marker M is set to the origin (0, 0), the position information (X, Y) of the image display device 100 is calculated. The image display device 100 has information on the shape and size of the positioning marker M in advance.

その後、ユーザUは、鉄骨Tの測定方向に対して平行移動しながら当該鉄骨Tを撮影する。その撮影した鉄骨Tの映像に基づいて、鉄骨Tと画像表示装置100との位置関係を算出することができる。鉄骨Tの撮影方向に応じてその形状(見え方)が変わることから、どの方向の、どれぐらいの距離から撮影したのかを把握することができる。よって、画像表示装置100は、鉄骨Tの位置決めマーカMを原点として移動後の位置(X1,Y1)を算出することができる。また、同様に鉄骨Tのユーザが指定した位置(X2、Y2)を算出することができる。 After that, the user U takes an image of the steel frame T while moving parallel to the measurement direction of the steel frame T. As shown in FIG. Based on the captured image of the steel frame T, the positional relationship between the steel frame T and the image display device 100 can be calculated. Since the shape (appearance) of the steel frame T changes depending on the direction in which the image is taken, it is possible to ascertain from which direction and from what distance the image was taken. Therefore, the image display device 100 can calculate the post-movement position (X1, Y1) with the positioning marker M of the steel frame T as the origin. Similarly, the user-specified position (X2, Y2) of the steel frame T can be calculated.

なお、自己位置姿勢推定機能は、上述の方法に限るものではなく、測定対象物との位置関係を推定することができるものであればよい。例えば、レーザートラッカーなどを利用してもよい。 Note that the self-position/orientation estimation function is not limited to the above-described method, and may be any method that can estimate the positional relationship with the measurement object. For example, a laser tracker or the like may be used.

画像表示装置100は、自己位置姿勢推定機能を用いて、サブマーカSM3の位置を推定し、測定開始基準位置Pとする。この測定開始基準位置Pは、自己位置姿勢推定機能により測定されたものであることから、誤差を含んでいる。 The image display device 100 estimates the position of the sub-marker SM3 as the measurement start reference position P using the self-position/orientation estimation function. Since this measurement start reference position P is measured by the self-position/orientation estimation function, it contains an error.

なお、サブマーカSM3の位置の推定は、ユーザU(画像表示装置100)の移動先の位置に基づいて行われる。すなわち、サブマーカSMは所定間隔ごとにおかれているため、ユーザUの位置に基づいて、最も近いサブマーカSMの位置は一義的に決まる。例えば、ユーザUの位置が、原点Sから1.5mであった場合、最も近いサブマーカSMは、原点Sから1.5mの位置と推定できる。画像表示装置100は原点Sから1.5mの位置を自己位置姿勢推定機能により、算出することができる。なお、サブマーカSMは50cmごとに配置されているとする。 Note that the position of the sub-marker SM3 is estimated based on the position to which the user U (image display device 100) has moved. That is, since the sub-markers SM are placed at predetermined intervals, the position of the nearest sub-marker SM is uniquely determined based on the user's U position. For example, if the position of the user U is 1.5 m from the origin S, the closest submarker SM can be estimated to be 1.5 m from the origin S. The image display device 100 can calculate the position 1.5 m from the origin S by the self-position/orientation estimation function. It is assumed that the submarkers SM are arranged every 50 cm.

説明の便宜上、上記のような説明をしたが、自己位置姿勢推定機能を利用するため、最も近いサブマーカSMの推定位置(測定開始基準位置P)は、座標情報(X2、Y2)で得られる。なお、サブマーカSM自体を認識してもよいし、ユーザが当該サブマーカSMをタップ等してもよい。 For convenience of explanation, the above description has been made, but since the self-position/orientation estimation function is used, the estimated position (measurement start reference position P) of the nearest submarker SM can be obtained from the coordinate information (X2, Y2). The sub-marker SM itself may be recognized, or the user may tap the sub-marker SM.

画像表示装置100は、測定開始基準位置Pの最も近くにあるサブマーカSM3を画像認識技術によって認識し、測定開始位置S2として認識する。なお、本実施形態においては、測定開始基準位置Pは座標情報で表されるが、測定開始位置S2は測定の起点として視覚的に示されるものである。 The image display device 100 recognizes the submarker SM3 closest to the measurement start reference position P by image recognition technology, and recognizes it as the measurement start position S2. In this embodiment, the measurement start reference position P is represented by coordinate information, but the measurement start position S2 is visually shown as the starting point of measurement.

図3に示されるように、画像表示装置100は、測定開始位置S2に相当するサブマーカSM3を含めて撮影する。この撮影した画像は、確認用画像X1として記憶される。 As shown in FIG. 3, the image display device 100 captures an image including the sub-marker SM3 corresponding to the measurement start position S2. This captured image is stored as the confirmation image X1.

図4は、サブマーカSM3の測定開始位置S2を用いてARメジャーにて測定する処理を示す。図4に示されるように、画像表示装置100は、ARメジャー機能により測定開始位置S2から付属物H(ガゼットプレート)までの距離L1を測定する。付属物Hは、ユーザが画像表示装置100を操作することにより指定される。その際、画像表示装置100は、付属物Hを含んだ鉄骨Tの画像を確認用画像X2として撮影し、記憶する。 FIG. 4 shows a process of measuring with AR measure using the measurement start position S2 of the submarker SM3. As shown in FIG. 4, the image display device 100 measures the distance L1 from the measurement start position S2 to the attachment H (gusset plate) using the AR measure function. The attachment H is designated by the user operating the image display device 100 . At that time, the image display device 100 captures and stores an image of the steel frame T including the attachment H as a confirmation image X2.

そして、画像表示装置100は、原点Sから測定開始基準位置Pまでの距離Lを算出する。そして、距離Lと、ARメジャーにより測定された距離L1とを合計して、距離L2を算出する。なお、測定開始位置S2が測定対象位置S3より原点Sから遠くにあった場合には距離Lから距離L1を減算して距離L2を算出する。この距離L2は、原点Sから付属物Hまでの長さを示す。距離L2を複合現実感にて表示することで、測定値と測定箇所とをわかりやすく対応付ける。また、原点Sおよび測定開始基準位置Pは、自己位置姿勢推定機能により測定された位置である。ユーザが移動することによりこれら位置情報は誤差を含むことになるが、相対的な位置関係は変わらないことから、概略的な距離Lを算出する際には、原点Sと測定開始基準位置Pとの距離を測定する。 Then, the image display device 100 calculates the distance L from the origin S to the measurement start reference position P. FIG. Then, the distance L2 is calculated by summing the distance L and the distance L1 measured by the AR measure. If the measurement start position S2 is farther from the origin S than the measurement target position S3, the distance L1 is subtracted from the distance L to calculate the distance L2. This distance L2 indicates the length from the origin S to the appendage H. By displaying the distance L2 in a mixed reality, the measurement value and the measurement point are associated in an easy-to-understand manner. The origin S and the measurement start reference position P are positions measured by the self-position/orientation estimation function. As the user moves, these positional information will contain errors, but the relative positional relationship will not change. measure the distance between

図5に示すように、表示部106は、測定ミスの判断のため、複合現実感により確認用画像X1および確認用画像X2が合成された映像を表示する。 As shown in FIG. 5, the display unit 106 displays an image obtained by synthesizing the confirmation image X1 and the confirmation image X2 by mixed reality in order to determine a measurement error.

このようにして、鉄骨Tにおける測定対象を概略的に測定し、詳細な部分については、ARメジャーなど緻密な測定方法を利用することで、ARメジャーなどでは測定が困難な大きな測定対象物の測定を可能にする。 In this way, the object to be measured in the steel frame T is roughly measured, and the detailed part is measured using a precise measurement method such as an AR measure. enable

上記説明した測定方法について、その測定方法を実行する画像表示装置100について説明する。図6は、画像表示装置100の機能構成を示すブロック図である。図6に示されるとおり、画像表示装置100は、カメラ101(撮影部)、自己位置姿勢推定部102(原点算出部、位置導出部)、概略測定部103(概略測定値算出部)、電子的測定部104(位置特定部、電子的測定値取得部)、測定値算出部105、表示部106(測定開始位置表示部、確認用画像表示部、測定値表示部)、および記憶部108(操作記憶部)を含んで構成されている。この画像表示装置100は、タブレット型の装置であって、カメラ101が撮影した鉄骨T等を表示部106に表示することができる。なお、タブレット型の装置に限るものではなく、ユーザの頭部に装着するゴーグル型の装置としてもよい。また、シースルー型のグラスに複合現実感機能を有したものとしてもよい。 The image display device 100 that executes the measurement method described above will be described. FIG. 6 is a block diagram showing the functional configuration of the image display device 100. As shown in FIG. As shown in FIG. 6, the image display device 100 includes a camera 101 (shooting unit), a self-position/orientation estimation unit 102 (origin calculation unit, position derivation unit), a rough measurement unit 103 (rough measurement value calculation unit), an electronic Measurement unit 104 (position specifying unit, electronic measurement value acquisition unit), measurement value calculation unit 105, display unit 106 (measurement start position display unit, confirmation image display unit, measurement value display unit), and storage unit 108 (operation storage unit). The image display device 100 is a tablet-type device, and can display the steel frame T or the like photographed by the camera 101 on the display unit 106 . The device is not limited to a tablet type device, and may be a goggle type device worn on the user's head. Further, a see-through type glass having a mixed reality function may be used.

カメラ101は、測定対象物である鉄骨Tを撮影する部分である。撮影した映像データは、表示部106に送られ表示される。 The camera 101 is a part for photographing the steel frame T, which is the object to be measured. The captured image data is sent to the display unit 106 and displayed.

自己位置姿勢推定部102は、カメラ101が撮影した映像データに基づいて、測定対象物である鉄骨Tと、自装置との位置関係を推定する部分である。上述したとおり、自己位置姿勢推定部102は、カメラ101が撮影した鉄骨Tに付加されている位置決めマーカMに基づいて、鉄骨Tの位置情報および自装置の位置情報を推定する。また、自己位置姿勢推定部102は、ユーザ(画像表示装置100)が移動すると、カメラ101が撮影した映像データに基づいて、移動後の画像表示装置100の位置を推定する。また、自己位置姿勢推定部102は、カメラ101が撮影した鉄骨Tの任意の部分(測定開始基準位置P)の位置を推定する。 The self-position/orientation estimation unit 102 is a part that estimates the positional relationship between the steel frame T, which is the object to be measured, and the self-device based on the image data captured by the camera 101 . As described above, the self-position/orientation estimating unit 102 estimates the position information of the steel frame T and the position information of the own device based on the positioning marker M added to the steel frame T photographed by the camera 101 . Further, when the user (image display device 100 ) moves, self-position/orientation estimation section 102 estimates the position of image display device 100 after movement based on video data captured by camera 101 . Also, the self-position/orientation estimation unit 102 estimates the position of an arbitrary portion (measurement start reference position P) of the steel frame T captured by the camera 101 .

概略測定部103は、自己位置姿勢推定部102により推定された鉄骨Tの位置決めマーカMにより定められた原点Sから測定開始基準位置Pまでの距離を測定する。上述したとおり、原点Sは位置決めマーカMに基づいて自己位置姿勢推定部102により算出される。測定開始基準位置Pは、ユーザUがサブマーカSMの近傍に移動して、そのサブマーカSMの推定位置として自己位置姿勢推定部102により算出される。 The rough measurement unit 103 measures the distance from the origin S defined by the positioning marker M of the steel frame T estimated by the self-position/orientation estimation unit 102 to the measurement start reference position P. As described above, the origin S is calculated by the self-position/posture estimation unit 102 based on the positioning marker M. FIG. The measurement start reference position P is calculated by the self-position/orientation estimation unit 102 as an estimated position of the submarker SM when the user U moves to the vicinity of the submarker SM.

電子的測定部104は、測定開始基準位置Pに最も近いサブマーカSMを認識することにより求められた測定開始位置S2から測定対象位置S3までの距離を測定する。測定開始位置S2は、カメラ101により撮影されたサブマーカSMに基づいて指定される。ここでの電子的測定部104は、いわゆるAR(Augmented Reality)メジャーといわれる測定部であり、対象物までの距離と、カメラ101で撮影した映像データに基づいて、映像データ上で指定された範囲の距離を測定することができる。 The electronic measurement unit 104 measures the distance from the measurement start position S2 obtained by recognizing the submarker SM closest to the measurement start reference position P to the measurement target position S3. The measurement start position S2 is specified based on the submarker SM captured by the camera 101. FIG. The electronic measuring unit 104 here is a so-called AR (Augmented Reality) measuring unit, and based on the distance to the object and the video data captured by the camera 101, the range specified on the video data distance can be measured.

測定値算出部105は、概略測定部103により測定された概略測定値と、電子的測定部104により測定された測定値とを合計することで、測定対象物の指定した範囲の測定値を取得することができる。 The measured value calculation unit 105 acquires the measured value of the object to be measured in the specified range by summing the approximate measured value measured by the approximate measurement unit 103 and the measured value measured by the electronic measurement unit 104. can do.

表示部106は、複合現実感による映像をユーザに提供する部分であり、現実空間にある測定対象物に対して、現実空間の所定位置に仮想的に配置した仮想画像を合成して表示する部分である。また、表示部は、測定開始位置を示す画像、確認用画像X1、X2、および最終測定値である距離L2を表示してもよい。本実施形態においては、タッチパネルの機能も有しており、ユーザにより表示されている部分を特定可能に構成されている。 The display unit 106 is a part that provides a mixed reality image to the user, and a part that synthesizes and displays a virtual image that is virtually arranged at a predetermined position in the real space with respect to the measurement object in the real space. is. Further, the display unit may display an image indicating the measurement start position, confirmation images X1 and X2, and the distance L2, which is the final measured value. This embodiment also has a touch panel function, and is configured so that the user can specify the displayed portion.

記憶部108は、測定作業を仮想画像とともに動画データで記憶し、また撮影された各測定箇所の画像データを記憶する部分である。 The storage unit 108 is a part that stores the measurement work in the form of moving image data together with the virtual image, and also stores the image data of each measurement point that has been photographed.

このように構成された画像表示装置100の動作について説明する。図7は、画像表示装置100の動作を示すフローチャートである。 The operation of the image display device 100 configured in this way will be described. FIG. 7 is a flow chart showing the operation of the image display device 100. As shown in FIG.

自己位置姿勢推定部102は、カメラ101により撮影された鉄骨Tの位置決めマーカMに基づいて、初期位置の設定を行う。この初期位置は、測定対象物である鉄骨Tと画像表示装置100との位置関係を示すための位置情報である。また、自己位置姿勢推定部102は、位置決めマーカMの位置である原点Sを設定する(S101)。これら位置情報は、例えば、位置決めマーカMを原点S(0,0)とし、画像表示装置100の位置を(X,Y)とする。 The self-position/posture estimation unit 102 sets the initial position based on the positioning marker M of the steel frame T photographed by the camera 101 . This initial position is position information for indicating the positional relationship between the steel frame T, which is the object to be measured, and the image display device 100 . The self-position/posture estimation unit 102 also sets the origin S, which is the position of the positioning marker M (S101). For these position information, for example, the positioning marker M is the origin S (0, 0) and the position of the image display device 100 is (X, Y).

ユーザU(画像表示装置100)は、概略測定のために鉄骨Tに沿って移動し、サブマーカSMの近辺まで移動する。 概略測定部103は、移動した画像表示装置100に最も近いサブマーカSMを推定し、その位置を測定開始基準位置Pとして記録する(S102)。その際、複合現実感により、測定開始位置を示す画像(矢印画像など)を重畳表示する。この測定開始基準位置Pは、自己位置姿勢推定部102に測定された位置である。 The user U (image display device 100) moves along the steel frame T to the vicinity of the sub-marker SM for rough measurement. Rough measurement unit 103 estimates the closest sub-marker SM to moved image display device 100, and records the position as measurement start reference position P (S102). At that time, an image (such as an arrow image) indicating the measurement start position is superimposed and displayed by mixed reality. This measurement start reference position P is the position measured by self-position/posture estimation section 102 .

電子的測定部104は、測定開始基準位置Pに最も近いサブマーカSMを画像処理により認識し、このサブマーカSMを測定開始位置S2として特定する(S103)。 The electronic measurement unit 104 recognizes the submarker SM closest to the measurement start reference position P by image processing, and specifies this submarker SM as the measurement start position S2 (S103).

カメラ101は、サブマーカSMを含む鉄骨Tを撮影して、確認用画像X1を取得して、記憶部108はこれを記憶する(S104)。 The camera 101 photographs the steel frame T including the sub-marker SM to acquire the confirmation image X1, which is stored in the storage unit 108 (S104).

電子的測定部104は、測定開始位置S2から測定対象位置S3までの距離L1を測定する(S105)。測定対象位置S3は、ユーザにより指定された地点である。本実施形態では、測定対象物である鉄骨Tのガゼットプレートであり、ユーザにより表示部106をタップすることにより特定される。この電子的測定部104は、例えば、ARメジャーであり、カメラ101が撮影した映像データに基づいて、電子的に測定することができる機能を有する。 The electronic measurement unit 104 measures the distance L1 from the measurement start position S2 to the measurement target position S3 (S105). The measurement target position S3 is a point designated by the user. In the present embodiment, the object to be measured is the gusset plate of the steel frame T, which is specified by the user by tapping the display unit 106 . This electronic measurement unit 104 is, for example, an AR measure, and has a function of electronically measuring based on video data captured by the camera 101 .

カメラ101は、測定対象位置S3を含む鉄骨Tを撮影した確認用画像X2を取得し、記憶部108はこれを記憶する(S106)。 The camera 101 acquires the confirmation image X2 of the steel frame T including the measurement target position S3, and the storage unit 108 stores this (S106).

測定値算出部105は、原点Sから測定開始基準位置Pまでの距離Lと、距離L1とを合計して、測定結果L2を算出する(S107)。測定開始位置S2が、原点Sを起点にして測定終了位置より遠くにあった場合には距離Lから距離L1を減算して距離L2を算出する。表示部106は、複合現実感により鉄骨Tに測定結果を合成して表示する(S108)。さらに表示部106は、測定開始位置S2を認識した際の確認用画像X1および測定対象位置S3を測定した際の確認用画像X2を、測定結果とともに表示する(S109)。 The measurement value calculation unit 105 sums the distance L from the origin S to the measurement start reference position P and the distance L1 to calculate the measurement result L2 (S107). When the measurement start position S2 is located farther than the measurement end position with respect to the origin S, the distance L1 is subtracted from the distance L to calculate the distance L2. The display unit 106 synthesizes and displays the measurement results on the steel frame T by mixed reality (S108). Furthermore, the display unit 106 displays the confirmation image X1 when the measurement start position S2 is recognized and the confirmation image X2 when the measurement target position S3 is measured, together with the measurement results (S109).

これにより、正確な測定値を得ることができるとともに、一般的なメジャーを利用した際における測定値の転記ミスなどを防止することができる。 As a result, it is possible to obtain accurate measured values, and to prevent mistakes in transcription of measured values when using a general measure.

つぎに変形例について説明する。上記実施形態は、電子的測定部104として、ARメジャーを利用したが、これに限るものではない。スマートメジャーまたはレーザー距離計など、画像表示装置100の機能外の装置を利用してもよい。この変形例においては、ゴーグル型の装置を想定している。すなわち、ユーザの頭部に装着するHMD型が好ましい。図8および図9を用いてその変形例における測定方法について説明する。これら図は、複合現実感による測定処理を模式的に示した図である。 Next, a modified example will be described. Although the above embodiment uses an AR measure as the electronic measurement unit 104, it is not limited to this. A device outside the functions of the image display device 100, such as a smart measure or a laser rangefinder, may be used. In this modification, a goggle type device is assumed. That is, an HMD type that is worn on the user's head is preferable. A measuring method in the modified example will be described with reference to FIGS. 8 and 9. FIG. These figures are diagrams schematically showing the measurement process by mixed reality.

図8(a)に示すように、ユーザUは、ゴーグル型の画像表示装置100aを装着している。この画像表示装置100aは、鉄骨Tを測定対象として、測定処理を行う。図8(b)に示すように、この画像表示装置100aは、鉄骨Tを撮影しつつ、自己位置姿勢推定機能に基づいて測定開始基準位置Pを算出し、そして測定開始位置S2を特定する。これら位置の算出・特定方法は上述の通りである。画像表示装置100aは、測定開始基準位置Pの位置を示すために、「測定開始位置」を示すメッセージを表示部106に表示する。このメッセージは、いわゆる複合現実感により合成処理されて表示される。 As shown in FIG. 8A, the user U wears a goggle-type image display device 100a. This image display device 100a performs measurement processing with a steel frame T as a measurement target. As shown in FIG. 8(b), the image display device 100a takes an image of the steel frame T, calculates the measurement start reference position P based on the self-position/orientation estimation function, and specifies the measurement start position S2. The method of calculating and specifying these positions is as described above. In order to indicate the position of the measurement start reference position P, the image display device 100a displays a message indicating “measurement start position” on the display unit 106 . This message is synthesized by so-called mixed reality and displayed.

図9(a)に示すように、ユーザUは、このメッセージに従って、スマートメジャー200を用いて、サブマーカSM3を認識することで得られた測定開始位置S2から所望の測定対象位置S3(ここでは付属物Hの位置)まで測定する。図9(b)に示すように、画像表示装置100aは、原点Sから測定開始基準位置Pまでの距離Lを算出する。また、スマートメジャー200は、測定開始位置S2から測定対象位置S3までの距離L1を算出する。画像表示装置100aは、スマートメジャー200が測定した距離L1を取得することで、これら距離LおよびL1に基づいて距離L2を算出することができる。 As shown in FIG. 9A, according to this message, the user U uses the smart measure 200 to move from the measurement start position S2 obtained by recognizing the submarker SM3 to the desired measurement target position S3 (here, attached position of object H). As shown in FIG. 9B, the image display device 100a calculates the distance L from the origin S to the measurement start reference position P. As shown in FIG. The smart measure 200 also calculates the distance L1 from the measurement start position S2 to the measurement target position S3. By acquiring the distance L1 measured by the smart measure 200, the image display device 100a can calculate the distance L2 based on these distances L and L1.

ユーザUは、ゴーグル型の画像表示装置100aを装着することで、スマートメジャー200を操作することができる。したがって、鉄骨Tの測定開始位置S2を、スマートメジャー200の測定起点とすることができる。 The user U can operate the smart measure 200 by wearing the goggle-type image display device 100a. Therefore, the measurement start position S2 of the steel frame T can be used as the measurement starting point of the smart measure 200. FIG.

この画像表示装置100aは、機能構成は画像表示装置100とほぼ同じである。異なる点は、電子的測定部104はなく、スマートメジャー200から測定値を受信するために近距離無線部107(測定値取得部)を有する点にある。なお、図示しない画像処理部が、位置特定部として機能する電子的測定部104と同等の処理を行うことで、サブマーカSMを認識し、そして測定開始位置S2を特定する。 The image display device 100 a has substantially the same functional configuration as the image display device 100 . The difference is that it does not have an electronic measurement unit 104, but instead has a short-range radio unit 107 (measurement acquisition unit) for receiving measurements from the smart measure 200. FIG. An image processing unit (not shown) recognizes the sub-marker SM and specifies the measurement start position S2 by performing processing equivalent to that of the electronic measurement unit 104 functioning as a position specifying unit.

図10はその機能構成を示す図である。画像表示装置100aにおいて、自己位置姿勢推定部102および概略測定部103が距離Lを測定する。近距離無線部107は、ブルートゥースなどでの通信を行う。近距離無線部107は、距離Lを測定した後、所定時間内に(または所定操作などの所定条件のもと)、スマートメジャー200から数値情報を受信した場合、測定値算出部105は、その数値情報を距離L1と扱う。そして、測定値算出部105は、これら距離LおよびL1を合算することで、距離L2を算出することができる。 FIG. 10 is a diagram showing its functional configuration. In the image display device 100a, the self-position/orientation estimation unit 102 and the approximate measurement unit 103 measure the distance L. FIG. A short-range radio unit 107 performs communication using Bluetooth or the like. If short-range wireless section 107 receives numerical information from smart measure 200 within a predetermined time (or under predetermined conditions such as a predetermined operation) after measuring distance L, measured value calculation section 105 Numerical information is treated as distance L1. Then, the measured value calculation unit 105 can calculate the distance L2 by adding up the distances L and L1.

上述の画像表示装置100およびその変形例の画像表示装置100aは、ARメジャーまたはスマートメジャー200により測定される鉄骨Tを、複合現実感による合成処理を行いつつ、カメラ101を用いて撮影し、録画する録画部(図示せず)を有してもよい。また、画像表示装置100および画像表示装置100aは、録画のための操作部(図示せず)を備え、測定開始のための操作を行ってから録画部による録画を所定秒間行うようにしてもよい。また、操作の前後数秒間を録画してもよい。なお、録画部は、常に録画処理を行い、その操作の前後数秒間を記憶するようにしてもよい。 The above-described image display device 100 and the image display device 100a of its modified example shoot the steel frame T measured by the AR measure or the smart measure 200 using the camera 101 while performing synthesis processing by mixed reality, and record the image. You may have a recording part (not shown) which carries out. Further, the image display device 100 and the image display device 100a may include an operation unit (not shown) for recording, and the recording unit may perform recording for a predetermined second after an operation for starting measurement is performed. . Also, a few seconds before and after the operation may be recorded. Note that the recording unit may always perform recording processing and store several seconds before and after the operation.

ARメジャー、またはスマートメジャー200は一例であり、そのほかの電子的測定値を取得することができる測定装置であればよい。例えば、レーザー距離計でもよい。また、画像表示装置100がメジャーの測定文字を画像認識で読み取ることにより電子的測定値を取得してもよい。また、メジャーが音声読み上げをする機能を有している場合には、画像表示装置100が、メジャーが読み上げた測定値を音声認識で読み取ることにより電子的測定値を取得してもよい。 The AR measure, or smart measure 200, is an example and may be any other measuring device capable of obtaining electronic measurements. For example, it may be a laser rangefinder. Alternatively, the image display device 100 may acquire the electronic measurement value by reading the measurement characters of the tape measure by image recognition. Further, if the measure has a function of reading aloud, the image display device 100 may acquire the electronic measurement value by reading the measurement value read out by the measure by voice recognition.

つぎに、本実施形態の測定装置である画像表示装置100の作用効果について説明する。画像表示装置100は、測定対象物である鉄骨Tを撮影するカメラ101を備える。そして、自己位置姿勢推定部102は、カメラ101により撮影された、鉄骨Tに付加された位置決めマーカM(指定部分)に基づいて測定対象物の原点Sを算出する。また、自己位置姿勢推定部102は、鉄骨Tの概略測定値を取得するための測定開始基準位置Pを導出する。また一方で、電子的測定部104は、位置特定部として機能して、測定開始基準位置Pの近傍のサブマーカSM(基準位置)を画像処理により認識し、それを測定開始位置S2とする。 Next, functions and effects of the image display device 100, which is the measurement device of this embodiment, will be described. The image display device 100 includes a camera 101 that captures an image of a steel frame T that is an object to be measured. Then, the self-position/orientation estimation unit 102 calculates the origin S of the object to be measured based on the positioning marker M (specified portion) added to the steel frame T captured by the camera 101 . The self-position/posture estimation unit 102 also derives a measurement start reference position P for obtaining rough measurement values of the steel frame T. FIG. On the other hand, the electronic measurement unit 104 functions as a position specifying unit, recognizes the submarker SM (reference position) near the measurement start reference position P by image processing, and sets it as the measurement start position S2.

概略測定部103は、原点Sから測定開始基準位置Pまでの概略測定値を算出する。また、電子的測定部104は、測定開始位置S2から、測定対象物における任意の位置である測定対象位置S3までの距離L1を示す電子的測定値を取得する。誤差を考慮しない場合には、測定開始基準位置Pから測定対象位置S3までの距離を測定してもよい。 The rough measurement unit 103 calculates a rough measurement value from the origin S to the measurement start reference position P. FIG. The electronic measurement unit 104 also obtains an electronic measurement value indicating the distance L1 from the measurement start position S2 to the measurement target position S3, which is an arbitrary position on the measurement target. If the error is not considered, the distance from the measurement start reference position P to the measurement target position S3 may be measured.

なお、画像表示装置100においては、ARメジャーなどの映像処理の手法により電子的測定を取得できる。また、変形例の画像表示装置100aにおいては、スマートメジャー200から得た測定を取得することができる。 In the image display device 100, electronic measurement can be obtained by a video processing technique such as AR measure. Also, in the image display device 100a of the modified example, measurements obtained from the smart measure 200 can be acquired.

測定値算出部105は、概略測定値である距離Lおよび電子的測定値である距離L1に基づいて、測定対象物に対する最終測定値である距離L2を算出する。 The measured value calculator 105 calculates the distance L2, which is the final measured value for the object, based on the distance L, which is the approximate measured value, and the distance L1, which is the electronically measured value.

この画像表示装置100によれば、装置内おいて、測定値を取得し、計算することで、測定対象物の測定値を取得することができる。 According to this image display apparatus 100, the measured value of the object to be measured can be obtained by obtaining and calculating the measured value in the apparatus.

なお、カメラ101および自己位置姿勢推定部102による測定開始基準位置Pの導出処理は必須ではない。概略測定部103は、鉄骨Tに、位置決めマーカM(指定部分)およびサブマーカSM(基準部分)を添付しておき、それらのみを利用して、位置決めマーカMからユーザが指定したサブマーカSMまでの距離を概略測定値として測定してもよい。この場合、指定したサブマーカSMの位置が測定開始位置に相当することになる。この場合、サブマーカSMが、それぞれ別の柄または色などで互いを識別可能とし、移動中に認識される必要がある。サブマーカSMは、所定間隔ごとに並んで添付されていることを前提としているため、サブマーカSMの個数とその間隔に基づいて概略測定値を算出することができる。なお、位置決めマーカMは必ずしも、鉄骨Tの端部に添付するものではない。測定範囲の起点をしめすものであればよい。 Note that derivation processing of the measurement start reference position P by the camera 101 and the self-position/orientation estimation unit 102 is not essential. The rough measurement unit 103 attaches a positioning marker M (specified portion) and a sub-marker SM (reference portion) to the steel frame T, and uses only them to measure the distance from the positioning marker M to the sub-marker SM specified by the user. may be measured as a rough measurement value. In this case, the position of the specified submarker SM corresponds to the measurement start position. In this case, the sub-markers SM should be identifiable from each other with different patterns, colors, etc., and should be recognized during movement. Since it is assumed that the submarkers SM are attached side by side at predetermined intervals, it is possible to calculate a rough measurement value based on the number of submarkers SM and their intervals. Note that the positioning marker M is not necessarily attached to the end of the steel frame T. As shown in FIG. Anything that indicates the starting point of the measurement range may be used.

また、画像表示装置100において、電子的測定部104は、測定開始基準位置Pおよび予め定められた間隔ごとに鉄骨Tに配置されたサブマーカSMに基づいて、測定開始位置S2を導出する。電子的測定部104は、測定開始位置S2を測定の起点として、電子的測定値である距離L1を取得する。すなわち、自己位置姿勢推定部102は、概略測定対象となるサブマーカSMを推定して、その位置を測定開始基準位置Pとする。電子的測定部104は、測定開始基準位置Pに最も近いサブマーカSMを画像認識して、その位置を測定開始位置S2とする。よって、測定開始位置S2を導出できる。 In the image display device 100, the electronic measurement unit 104 derives the measurement start position S2 based on the measurement start reference position P and the submarkers SM arranged on the steel frame T at predetermined intervals. The electronic measurement unit 104 acquires the distance L1, which is an electronic measurement value, using the measurement start position S2 as the starting point of measurement. That is, self-position/orientation estimating section 102 estimates sub-marker SM to be roughly measured, and sets that position as measurement start reference position P. FIG. The electronic measurement unit 104 performs image recognition of the submarker SM closest to the measurement start reference position P, and sets that position as the measurement start position S2. Therefore, the measurement start position S2 can be derived.

これにより、正確な距離L1を取得できる。測定開始基準位置Pは、自己位置姿勢推定により得られたものであることから、ユーザの移動に伴って誤差が生じる。そして、サブマーカSMに基づいた測定開始位置S2とS3との間の正確な距離L1を求め、測定開始基準位置Pの論理的な位置を加算することで、正確なL2を簡単に求めることができる。 Thereby, the accurate distance L1 can be obtained. Since the measurement start reference position P is obtained by self-position/orientation estimation, an error occurs as the user moves. Then, by obtaining an accurate distance L1 between the measurement start positions S2 and S3 based on the submarkers SM and adding the logical position of the measurement start reference position P, an accurate distance L2 can be easily obtained. .

画像表示装置100において、表示部106は、測定開始基準位置Pであることを示すメッセージを表示する。測定開始基準位置Pと測定開始位置S2とは、ほとんど同じ位置を示している。よって、ユーザは、このメッセージに基づいて、測定開始位置S2から前記任意の位置までの距離を、電子的測定手段を用いて測定可能にさせる。特に変形例における画像表示装置100aにおいては、メッセージを表示することで、スマートメジャー200の測定開始位置を正確にすることができる。 In the image display device 100, the display unit 106 displays a message indicating that the measurement start reference position P is reached. The measurement start reference position P and the measurement start position S2 indicate almost the same position. Therefore, based on this message, the user makes it possible to measure the distance from the measurement start position S2 to the arbitrary position using electronic measuring means. In particular, in the image display device 100a of the modified example, by displaying a message, the measurement start position of the smart measure 200 can be made accurate.

また、画像表示装置100は、カメラ101により撮影された、測定時における測定開始位置S2および測定対象位置S3の少なくとも一つを含んだ鉄骨Tを確認用画像X1またはX2として記憶する確認用画像記憶部である記憶部108をさらに備える。表示部106は、最終測定値である距離L2および確認用画像X1およびX2を表示する。 The image display device 100 also stores a confirmation image X1 or X2 of the steel frame T including at least one of the measurement start position S2 and the measurement target position S3 at the time of measurement photographed by the camera 101. A storage unit 108 is further provided. Display unit 106 displays distance L2, which is the final measured value, and confirmation images X1 and X2.

これにより、どのような状態において距離L2が得られたのかユーザ、そのほかの測定者は把握することができる。例えば、付属物Hのずれなどにより距離L2が大きくずれていた場合などでの測定ミスを容易に発見することができる。 This allows the user and other measurers to understand under what conditions the distance L2 was obtained. For example, it is possible to easily find a measurement error when the distance L2 is greatly deviated due to the deviation of the appendage H or the like.

また、記憶部108は、カメラ101により撮影された鉄骨Tに対する測定操作を動画データとして記憶する。特に、記憶部108は、ユーザが測定操作を行った時を基準にした前後所定時間の動画データを記憶する。 The storage unit 108 also stores the measurement operation for the steel frame T photographed by the camera 101 as video data. In particular, the storage unit 108 stores video data for a predetermined period of time before and after the time when the user performed the measurement operation.

これにより、測定ミスの発見を容易にする。 This facilitates the discovery of measurement errors.

また、画像表示装置100および画像表示装置100aにおいて、自己位置姿勢推定部102を用いて、SLAMなどの自己位置姿勢推定機能を用いて測定開始基準位置を取得する。これにより、位置測定を容易にする。 In the image display device 100 and the image display device 100a, the self-position/posture estimation unit 102 is used to acquire the measurement start reference position using a self-position/posture estimation function such as SLAM. This facilitates position measurement.

上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 The block diagrams used in the description of the above embodiments show blocks for each function. These functional blocks (components) are implemented by any combination of at least one of hardware and software. Also, the method of realizing each functional block is not particularly limited. That is, each functional block may be implemented using one device physically or logically coupled, or directly or indirectly using two or more physically or logically separated devices (e.g. , wired, wireless, etc.) and may be implemented using these multiple devices. A functional block may be implemented by combining software in the one device or the plurality of devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judging, determining, determining, calculating, calculating, processing, deriving, examining, searching, checking, receiving, transmitting, outputting, accessing, resolving, selecting, choosing, establishing, comparing, assuming, expecting, assuming, Broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc. can't For example, a functional block (component) that makes transmission work is called a transmitting unit or a transmitter. In either case, as described above, the implementation method is not particularly limited.

例えば、本開示の一実施の形態における画像表示装置100、100aなどは、本開示の測定方法の処理を行うコンピュータとして機能してもよい。図11は、本開示の一実施の形態に係る画像表示装置100、100aのハードウェア構成の一例を示す図である。上述の画像表示装置100、100aは、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the image display devices 100, 100a, etc. according to an embodiment of the present disclosure may function as a computer that performs processing of the measurement method of the present disclosure. FIG. 11 is a diagram illustrating an example of a hardware configuration of image display devices 100 and 100a according to an embodiment of the present disclosure. The image display devices 100 and 100a described above may physically be configured as computer devices including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。画像表示装置100、100aのハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the image display devices 100 and 100a may be configured to include one or more of each device shown in the drawing, or may be configured without including some of the devices.

画像表示装置100、100aにおける各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 Each function of the image display devices 100 and 100a is performed by the processor 1001 performing calculations by loading predetermined software (programs) onto hardware such as the processor 1001 and the memory 1002, and controlling communication by the communication device 1004. , and controlling at least one of reading and writing of data in the memory 1002 and the storage 1003 .

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の自己位置姿勢推定部102、概略測定部103、電子的測定部104などは、プロセッサ1001によって実現されてもよい。 The processor 1001, for example, operates an operating system to control the entire computer. The processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, registers, and the like. For example, the self-position/orientation estimation unit 102 , the rough measurement unit 103 , the electronic measurement unit 104 and the like described above may be realized by the processor 1001 .

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、画像表示装置100の自己位置姿勢推定部102、概略測定部103、電子的測定部104は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 The processor 1001 also reads programs (program codes), software modules, data, etc. from at least one of the storage 1003 and the communication device 1004 to the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least part of the operations described in the above embodiments is used. For example, the self-position/orientation estimation unit 102, the rough measurement unit 103, and the electronic measurement unit 104 of the image display device 100 may be stored in the memory 1002 and realized by a control program operating in the processor 1001, and other functional blocks. may be realized in the same way. Although it has been explained that the above-described various processes are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. FIG. Processor 1001 may be implemented by one or more chips. Note that the program may be transmitted from a network via an electric communication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る測定方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one of, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), and RAM (Random Access Memory). may be The memory 1002 may also be called a register, cache, main memory (main storage device), or the like. The memory 1002 can store executable programs (program code), software modules, etc. to implement the measurement method according to an embodiment of the present disclosure.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disc such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disc, a magneto-optical disc (for example, a compact disc, a digital versatile disc, a Blu-ray disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, and/or the like. Storage 1003 may also be called an auxiliary storage device. The storage medium described above may be, for example, a database, server, or other suitable medium including at least one of memory 1002 and storage 1003 .

通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。 The communication device 1004 is hardware (transmitting/receiving device) for communicating between computers via at least one of a wired network and a wireless network, and is also called a network device, a network controller, a network card, a communication module, or the like. The communication device 1004 includes a high-frequency switch, a duplexer, a filter, a frequency synthesizer, and the like, for example, in order to realize at least one of frequency division duplex (FDD) and time division duplex (TDD). may consist of

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, keyboard, mouse, microphone, switch, button, sensor, etc.) that receives input from the outside. The output device 1006 is an output device (eg, display, speaker, LED lamp, etc.) that outputs to the outside. Note that the input device 1005 and the output device 1006 may be integrated (for example, a touch panel).

また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 Devices such as the processor 1001 and the memory 1002 are connected by a bus 1007 for communicating information. The bus 1007 may be configured using a single bus, or may be configured using different buses between devices.

また、画像表示装置100、100aは、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 Further, the image display devices 100 and 100a include hardware such as microprocessors, digital signal processors (DSPs), ASICs (Application Specific Integrated Circuits), PLDs (Programmable Logic Devices), and FPGAs (Field Programmable Gate Arrays). , and part or all of each functional block may be implemented by the hardware. For example, processor 1001 may be implemented using at least one of these pieces of hardware.

情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。 Notification of information is not limited to the aspects/embodiments described in this disclosure, and may be performed using other methods. For example, notification of information includes physical layer signaling (e.g., DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (e.g., RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, It may be implemented by broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. RRC signaling may also be called an RRC message, and may be, for example, an RRC connection setup message, an RRC connection reconfiguration message, or the like.

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, sequences, flowcharts, etc. of each aspect/embodiment described in this disclosure may be rearranged as long as there is no contradiction. For example, the methods described in this disclosure present elements of the various steps using a sample order, and are not limited to the specific order presented.

情報等は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。 Information, etc., may be output from a higher layer (or lower layer) to a lower layer (or higher layer). It may be input and output via multiple network nodes.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input/output information and the like may be stored in a specific location (for example, memory), or may be managed using a management table. Input/output information and the like can be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described in the present disclosure may be used alone, may be used in combination, or may be used by switching according to execution. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.

以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it should be apparent to those skilled in the art that the present disclosure is not limited to the embodiments described in this disclosure. The present disclosure can be practiced with modifications and variations without departing from the spirit and scope of the present disclosure as defined by the claims. Accordingly, the description of the present disclosure is for illustrative purposes and is not meant to be limiting in any way.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.

また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Software, instructions, information, etc. may also be sent and received over a transmission medium. For example, the software uses wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and/or wireless technology (infrared, microwave, etc.) to create websites, Wired and/or wireless technologies are included within the definition of transmission medium when sent from a server or other remote source.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described in this disclosure may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of

なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。 The terms explained in this disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings. For example, the channel and/or symbols may be signaling. A signal may also be a message. A component carrier (CC) may also be called a carrier frequency, a cell, a frequency carrier, or the like.

また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。 In addition, the information, parameters, etc. described in the present disclosure may be expressed using absolute values, may be expressed using relative values from a predetermined value, or may be expressed using other corresponding information. may be represented. For example, radio resources may be indexed.

上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。 The names used for the parameters described above are not limiting names in any way. Further, the formulas, etc., using these parameters may differ from those expressly disclosed in this disclosure. Since the various channels (e.g., PUCCH, PDCCH, etc.) and information elements can be identified by any suitable names, the various names assigned to these various channels and information elements are in no way restrictive names. isn't it.

本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 As used in this disclosure, the terms "determining" and "determining" may encompass a wide variety of actions. "Judgement", "determining" are, for example, judging, calculating, computing, processing, deriving, investigating, looking up, searching, inquiring (eg, lookup in a table, database, or other data structure); Also, "judgment" and "determination" are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that a "judgment" or "decision" has been made. In addition, "judgment" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision". Also, "judgment (decision)" may be read as "assuming", "expecting", "considering", or the like.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or coupling between two or more elements, It can include the presence of one or more intermediate elements between two elements being "connected" or "coupled." Couplings or connections between elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in this disclosure, two elements are defined using at least one of one or more wires, cables, and printed electrical connections and, as some non-limiting and non-exhaustive examples, in the radio frequency domain. , electromagnetic energy having wavelengths in the microwave and optical (both visible and invisible) regions, and the like.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used in this disclosure, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 Where "include," "including," and variations thereof are used in this disclosure, these terms are inclusive, as is the term "comprising." is intended. Furthermore, the term "or" as used in this disclosure is not intended to be an exclusive OR.

本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In this disclosure, where articles have been added by translation, such as a, an, and the in English, the disclosure may include the plural nouns following these articles.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other." The term may also mean that "A and B are different from C". Terms such as "separate," "coupled," etc. may also be interpreted in the same manner as "different."

100…画像表示装置、100a…画像表示装置、101…カメラ、102…自己位置姿勢推定部、103…概略測定部、104…電子的測定部、105…測定値算出部、106…表示部、107…近距離無線部、108…記憶部。
DESCRIPTION OF SYMBOLS 100... Image display apparatus 100a... Image display apparatus 101... Camera 102... Self-position/orientation estimation part 103... Rough measurement part 104... Electronic measurement part 105... Measurement value calculation part 106... Display part 107 ... short-range radio unit, 108 ... storage unit.

Claims (6)

測定対象物を撮影して映像データを取得する撮影部と、
前記映像データにおける前記測定対象物の指定部分に基づいて前記測定対象物の原点位置を算出する原点算出部と、
自己位置姿勢推定機能にしたがって指定された測定開始基準位置に基づいて、前記測定対象物に予め定められた間隔ごとに配置された一または複数の基準部分から一の基準部分の推定位置を推定し、当該推定位置に基づいて、電子的測定値を取得するための測定開始位置を特定する位置特定部と、
前記原点位置を測定起点として前記測定対象物における前記測定開始基準位置までの概略測定値を算出する概略測定値算出部と、
前記測定開始位置から、前記映像データ上で指定された前記測定対象物における任意の位置までの距離を示す電子的測定値を取得する電子的測定値取得部と、
前記概略測定値および前記電子的測定値に基づいて、前記測定対象物に対する最終測定値を算出する測定値算出部と、
を備える測定装置。
a photographing unit for photographing an object to be measured and acquiring image data;
an origin calculation unit that calculates an origin position of the measurement object based on a specified portion of the measurement object in the video data;
estimating an estimated position of one reference portion from one or more reference portions arranged at predetermined intervals on the object to be measured, based on a measurement start reference position specified according to the self-position/orientation estimation function; , a position determining unit for determining a measurement starting position for obtaining electronic measurements based on the estimated position;
a rough measurement value calculation unit that calculates a rough measurement value up to the measurement start reference position on the measurement object using the origin position as a measurement starting point;
an electronic measurement value acquisition unit that acquires an electronic measurement value indicating a distance from the measurement start position to an arbitrary position on the measurement object specified on the image data ;
a measurement value calculation unit that calculates a final measurement value for the measurement object based on the rough measurement value and the electronic measurement value;
A measuring device comprising a
前記測定開始位置を表示する測定開始位置表示部をさらに備え、
ユーザに、当該測定開始位置から前記任意の位置までの距離を、電子的測定手段を用いた測定を可能にさせる、
請求項1に記載の測定装置。
Further comprising a measurement start position display unit that displays the measurement start position,
Allowing the user to measure the distance from the measurement start position to the arbitrary position using electronic measurement means;
The measuring device according to claim 1 .
前記撮影部により撮影された、測定時における前記測定開始位置および測定範囲の終点を示す測定対象位置の少なくとも一つを含んだ測定対象物を確認用画像として記憶する確認用画像記憶部と、
前記最終測定値および前記確認用画像を表示する確認用画像表示部と、を備える、
請求項1または2に記載の測定装置。
a confirmation image storage unit for storing, as a confirmation image, a measurement object captured by the imaging unit and including at least one of the measurement start position and the measurement target position indicating the end point of the measurement range at the time of measurement;
a confirmation image display unit that displays the final measured value and the confirmation image;
3. The measuring device according to claim 1 or 2 .
前記撮影部により撮影された測定対象物に対する測定操作を動画データとして記憶する操作記憶部をさらに備える、
請求項1~3のいずれか一項に記載の測定装置。
further comprising an operation storage unit that stores, as video data, a measurement operation for the measurement object photographed by the photographing unit;
The measuring device according to any one of claims 1-3 .
前記操作記憶部は、ユーザが測定操作を行った時を基準にした前後所定時間の動画データを記憶する、
請求項4に記載の測定装置。
The operation storage unit stores moving image data for a predetermined period of time before and after the time when the user performed the measurement operation.
The measuring device according to claim 4 .
前記撮影部により撮影された映像データにおける測定対象物に算出された前記最終測定値を重畳表示する測定値表示部をさらに備える、
請求項1~5のいずれか一項に記載の測定装置。
Further comprising a measurement value display unit that superimposes and displays the final measurement value calculated for the measurement object in the video data captured by the imaging unit,
The measuring device according to any one of claims 1-5 .
JP2021570072A 2020-01-08 2021-01-06 measuring device Active JP7328361B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020001675 2020-01-08
JP2020001675 2020-01-08
PCT/JP2021/000246 WO2021141055A1 (en) 2020-01-08 2021-01-06 Measurement device

Publications (2)

Publication Number Publication Date
JPWO2021141055A1 JPWO2021141055A1 (en) 2021-07-15
JP7328361B2 true JP7328361B2 (en) 2023-08-16

Family

ID=76787593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021570072A Active JP7328361B2 (en) 2020-01-08 2021-01-06 measuring device

Country Status (2)

Country Link
JP (1) JP7328361B2 (en)
WO (1) WO2021141055A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009174947A (en) 2008-01-23 2009-08-06 Nisshin A & C Co Ltd Pass/fail determination method for length in transfer direction of workpiece
WO2017134886A1 (en) 2016-02-02 2017-08-10 ソニー株式会社 Information processing device, information processing method, and recording medium
JP2019105593A (en) 2017-12-14 2019-06-27 Agms株式会社 Measurement system, measurement method, measurement program, belt and clothing

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6058801B2 (en) * 1980-03-08 1985-12-21 ニッタ株式会社 Sizing processing equipment for long objects

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009174947A (en) 2008-01-23 2009-08-06 Nisshin A & C Co Ltd Pass/fail determination method for length in transfer direction of workpiece
WO2017134886A1 (en) 2016-02-02 2017-08-10 ソニー株式会社 Information processing device, information processing method, and recording medium
JP2019105593A (en) 2017-12-14 2019-06-27 Agms株式会社 Measurement system, measurement method, measurement program, belt and clothing

Also Published As

Publication number Publication date
WO2021141055A1 (en) 2021-07-15
JPWO2021141055A1 (en) 2021-07-15

Similar Documents

Publication Publication Date Title
KR102568695B1 (en) Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking
US9733713B2 (en) Laser beam based gesture control interface for mobile devices
US10152119B2 (en) Head-mounted display apparatus and calibration method thereof
US11238273B2 (en) Data processing method and apparatus, electronic device and storage medium
CN112258567A (en) Visual positioning method and device for object grabbing point, storage medium and electronic equipment
JP6944405B2 (en) Building judgment system
US11616699B2 (en) Obtaining location metadata for network devices using augmented reality
KR20160001418A (en) Peripheral Apparatus, Server Apparatus and and Method for Checking Location of Portable Apparatus
CN109212450A (en) The detection method and device of power loss in test macro
JP7328361B2 (en) measuring device
CN109242782B (en) Noise processing method and device
CN108960213A (en) Method for tracking target, device, storage medium and terminal
JP2019186800A (en) Information terminal device, program and method
US11790620B2 (en) Method and system for augmented reality Wi-Fi coverage map
CN109451526A (en) A kind of wireless network method for visualizing and device
EP3312626B1 (en) Auxiliary apparatus for lighthouse positioning system
US20220357157A1 (en) Image-processing method, image-processing device, and recording medium
JP6878235B2 (en) Video display system
KR20170083328A (en) Mobile device and method for controlling the mobile device
US10705630B2 (en) Control method, information processing apparatus, and non-transitory computer-readable storage medium for storing program
WO2021007733A1 (en) Method for recognizing gesture for operating terminal device, and terminal device
JP2016192014A (en) Information processing device, information processing method, and program
WO2023248619A1 (en) Terminal device and object management server
JP3285567B2 (en) Three-dimensional position measuring device and method, and recording medium recording three-dimensional position measuring program
US20180274918A1 (en) Three-dimensional measurement apparatus, non-transitory computer readable medium, and three-dimensional measurement system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230803

R150 Certificate of patent or registration of utility model

Ref document number: 7328361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150