JP2021177162A - Measuring apparatus, measuring program, and measuring method - Google Patents

Measuring apparatus, measuring program, and measuring method Download PDF

Info

Publication number
JP2021177162A
JP2021177162A JP2020213828A JP2020213828A JP2021177162A JP 2021177162 A JP2021177162 A JP 2021177162A JP 2020213828 A JP2020213828 A JP 2020213828A JP 2020213828 A JP2020213828 A JP 2020213828A JP 2021177162 A JP2021177162 A JP 2021177162A
Authority
JP
Japan
Prior art keywords
measurement
virtual object
measured
processing unit
target surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020213828A
Other languages
Japanese (ja)
Other versions
JP6867071B1 (en
Inventor
希 柿▲崎▼
Nozomi Kakizaki
彰為 伊藤
Akinari Ito
笑天 楊
Xiaotian Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ITAC Solutions Inc
Original Assignee
ITAC Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020082643A external-priority patent/JP6821222B1/en
Application filed by ITAC Solutions Inc filed Critical ITAC Solutions Inc
Priority to JP2020213828A priority Critical patent/JP6867071B1/en
Application granted granted Critical
Publication of JP6867071B1 publication Critical patent/JP6867071B1/en
Publication of JP2021177162A publication Critical patent/JP2021177162A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a measuring apparatus, a measuring program, and a measuring method that are inexpensive and highly convenient for measuring the dimensions of an object to be measured.SOLUTION: The present invention relates to a measuring apparatus including imaging means and display means. The measuring apparatus generates a rectangular parallelepiped shaped virtual object for measuring, which is associated with a coordinate system of a real space in which an object to be measured is placed, synthesizes an image of the virtual object for measuring with a picked-up image to display the synthesized image on a screen of the display means, recognizes a surface of the object to be measured with which an optical axis of the imaging means is brought into contact as a target surface, determines any position of the target surface as a target point, determines a surface in a direction closest to the target surface on the virtual object for measuring as an object surface, adjusts dimensions of the object surface of the virtual object for measuring in a normal direction so that the object surface moves in a direction approaching the target point, and acquires and outputs a measurement parameter concerning a shape of the current virtual object for measuring.SELECTED DRAWING: Figure 1

Description

この発明は、測定装置、測定プログラム及び測定方法に関し、例えば、宅配や引越し等の業務の際に輸送される荷物に関する寸法測定に適用し得る。 The present invention relates to a measuring device, a measuring program and a measuring method, and can be applied to, for example, dimensional measurement of a baggage transported during a business such as home delivery or moving.

宅配や引越し等の業務の際に、輸送料金や輸送条件を見積もる場合に、梱包された箱等の被測定物の寸法(縦、横、高さの各寸法)を測定する必要がある。 When estimating transportation charges and transportation conditions during operations such as home delivery and moving, it is necessary to measure the dimensions of the object to be measured (length, width, height) such as packed boxes.

上述のような被測定物の寸法を測定する従来技術としては、特許文献1の記載技術がある。 As a conventional technique for measuring the dimensions of an object to be measured as described above, there is a technique described in Patent Document 1.

特許文献1では、ユーザが煩雑な操作を行うことなく、被測定物の寸法を測定する方法として、2つのレーザ光源とカメラがつけられたセンサを用いて、被測定物にレーザ光を照射し、レーザ光が照射された状態の被測定物を撮像した画像から、被測定物の各寸法を測定することについて記載されている。 In Patent Document 1, as a method of measuring the size of an object to be measured without a user performing complicated operations, the object to be measured is irradiated with a laser beam by using two laser light sources and a sensor equipped with a camera. It is described that each dimension of the object to be measured is measured from an image obtained by capturing an image of the object to be measured in a state of being irradiated with a laser beam.

特開2018−112521号公報Japanese Unexamined Patent Publication No. 2018-11521

しかしながら、特許文献1の記載技術を適用した場合でも、ある程度ユーザの作業負担の軽減にはつながるが、レーザ光源とカメラの両方を備えるセンサを用意して作業員に携帯させなければならないため、導入自体に多くのコストを要し、且つ利便性が悪かった。 However, even if the technique described in Patent Document 1 is applied, the work load on the user can be reduced to some extent, but a sensor equipped with both a laser light source and a camera must be prepared and carried by the worker. It cost a lot of money and was not convenient.

以上のような問題に鑑みて、低コストで且つ利便性の高い被測定物の寸法を測定することができる測定装置、測定プログラム及び測定方法が望まれている。 In view of the above problems, a measuring device, a measuring program, and a measuring method capable of measuring the dimensions of the object to be measured at low cost and with high convenience are desired.

第1の本発明の測定装置は、撮像手段と、表示手段とを備える測定装置において、(1)被測定物が配置された現実空間の座標系と紐づけられた直方体形状の測定用仮想オブジェクトを生成し、前記撮像手段で撮像された撮像画像に前記測定用仮想オブジェクトの画像を合成して前記表示手段の画面に表示させる拡張現実処理手段と、(2)前記測定用仮想オブジェクトの編集を行うオブジェクト編集手段と、(3)現在の前記測定用仮想オブジェクトの形状に関する測定パラメータを取得して出力する測定パラメータ出力手段とを有し(4)前記オブジェクト編集手段は、前記被測定物で前記撮像手段の光軸が当接する面を目標面として認識し、前記目標面のいずれかの位置を目標点として決定し、前記測定用仮想オブジェクト上で前記目標面と最も向きの近い面を対象面として決定し、前記対象面が前記目標点に近づく方向に移動するように、前記測定用仮想オブジェクトの前記対象面の法線方向の寸法を調整することを特徴とする。 The first measuring device of the present invention is a measuring device including an imaging means and a display means, in which (1) a virtual object for measuring a rectangular shape associated with a coordinate system in the real space in which an object to be measured is arranged. Is generated, and the image of the virtual object for measurement is combined with the image captured by the imaging means and displayed on the screen of the display means. (2) Editing of the virtual object for measurement is performed. It has an object editing means to be performed, (3) a measurement parameter output means for acquiring and outputting measurement parameters related to the current shape of the virtual object for measurement, and (4) the object editing means is the object to be measured. The surface on which the optical axis of the imaging means abuts is recognized as the target surface, any position of the target surface is determined as the target point, and the surface closest to the target surface on the measurement virtual object is the target surface. The measurement virtual object is characterized in that the dimension of the target surface in the normal direction is adjusted so that the target surface moves in a direction approaching the target point.

第2の本発明の測定プログラムは、撮像手段と、表示手段とを備える測定装置に搭載されたコンピュータを、(1)被測定物が配置された現実空間の座標系と紐づけられた直方体形状の測定用仮想オブジェクトを生成し、前記撮像手段で撮像された撮像画像に前記測定用仮想オブジェクトの画像を合成して前記表示手段の画面に表示させる拡張現実処理手段と、(2)前記測定用仮想オブジェクトの編集を行うオブジェクト編集手段と、(3)現在の前記測定用仮想オブジェクトの形状に関する測定パラメータを取得して出力する測定パラメータ出力手段として機能させ、(4)前記オブジェクト編集手段は、前記被測定物で前記撮像手段の光軸が当接する面を目標面として認識し、前記目標面のいずれかの位置を目標点として決定し、前記測定用仮想オブジェクト上で前記目標面と最も向きの近い面を対象面として決定し、前記対象面が前記目標点に近づく方向に移動するように、前記測定用仮想オブジェクトの前記対象面の法線方向の寸法を調整することを特徴とする。 In the second measurement program of the present invention, a computer mounted on a measurement device including an imaging means and a display means is (1) a rectangular shape in which an object to be measured is associated with a coordinate system in the real space. The augmented reality processing means for generating the virtual object for measurement of the above, synthesizing the image of the virtual object for measurement with the image captured by the imaging means, and displaying the image on the screen of the display means, and (2) for the measurement. It functions as an object editing means for editing a virtual object and (3) a measurement parameter output means for acquiring and outputting measurement parameters related to the current shape of the virtual object for measurement, and (4) the object editing means is described above. The surface of the object to be measured that the optical axis of the imaging means abuts is recognized as the target surface, any position of the target surface is determined as the target point, and the object is most oriented with the target surface on the virtual object for measurement. A surface close to the target surface is determined as the target surface, and the dimension of the virtual object for measurement in the normal direction of the target surface is adjusted so that the target surface moves in a direction approaching the target point.

第3の本発明は、測定装置が行う測定方法において、(1)前記測定装置は、撮像手段、表示手段、拡張現実処理手段、オブジェクト編集手段、及び測定パラメータ出力手段とを備え、(2)前記拡張現実処理手段は、被測定物が配置された現実空間の座標系と紐づけられた直方体形状の測定用仮想オブジェクトを生成し、前記撮像手段で撮像された撮像画像に前記測定用仮想オブジェクトの画像を合成して前記表示手段の画面に表示させ、(3)前記オブジェクト編集手段は、前記測定用仮想オブジェクトの編集を行い、(4)前記測定パラメータ出力手段は、現在の前記測定用仮想オブジェクトの形状に関する測定パラメータを取得して出力し、(5)前記オブジェクト編集手段は、前記被測定物で前記撮像手段の光軸が当接する面を目標面として認識し、前記目標面のいずれかの位置を目標点として決定し、前記測定用仮想オブジェクト上で前記目標面と最も向きの近い面を対象面として決定し、前記対象面が前記目標点に近づく方向に移動するように、前記測定用仮想オブジェクトの前記対象面の法線方向の寸法を調整することを特徴とする。 A third aspect of the present invention is a measuring method performed by a measuring device, wherein the measuring device includes (1) an image pickup means, a display means, an augmented reality processing means, an object editing means, and a measurement parameter output means (2). The augmented reality processing means generates a virtual object for measurement of a rectangular shape associated with a coordinate system in the real space in which an object to be measured is arranged, and the virtual object for measurement is added to an image captured by the imaging means. The images of are combined and displayed on the screen of the display means, (3) the object editing means edits the virtual object for measurement, and (4) the measurement parameter output means is the current virtual for measurement. The measurement parameters related to the shape of the object are acquired and output, and (5) the object editing means recognizes the surface of the object to be measured with which the optical axis of the imaging means abuts as a target surface, and any one of the target surfaces. Is determined as a target point, the surface closest to the target surface on the measurement virtual object is determined as the target surface, and the measurement is performed so that the target surface moves in a direction approaching the target point. It is characterized in that the dimension of the target surface of the virtual object in the normal direction is adjusted.

本発明によれば、低コストで且つ利便性の高い被測定物の寸法を測定する測定装置、測定プログラム及び測定方法を提供することができる。 According to the present invention, it is possible to provide a measuring device, a measuring program, and a measuring method for measuring the dimensions of an object to be measured at low cost and with high convenience.

第1の実施形態に係る測定装置と被測定物について示した図(斜視図)である。It is a figure (perspective view) which showed the measuring apparatus and the object to be measured which concerns on 1st Embodiment. 第1の実施形態に係る測定装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the measuring apparatus which concerns on 1st Embodiment. 第1の実施形態に係る測定装置(測定処理部)が、起動する際の動作について示したフローチャートである。It is a flowchart which showed the operation at the time of starting the measuring apparatus (measurement processing part) which concerns on 1st Embodiment. 第1の実施形態に係る測定処理部が起動した際に、タッチパネルディスプレイに表示される操作画面の遷移について示した図である。It is a figure which showed the transition of the operation screen displayed on the touch panel display when the measurement processing unit which concerns on 1st Embodiment is activated. 第1の実施形態に係る測定用仮想オブジェクトを構成する各辺及び各面を特定する符号について示した図である。It is a figure which showed the code which specifies each side and each surface which constitutes the virtual object for measurement which concerns on 1st Embodiment. 第1の実施形態に係る測定用仮想オブジェクトに配置されたコライダーの構成について示した図(その1)である。It is a figure (the 1) which showed the structure of the collider arranged in the virtual object for measurement which concerns on 1st Embodiment. 第1の実施形態に係る測定用仮想オブジェクトに配置されたコライダーの構成について示した図(その2)である。It is a figure (the 2) which showed the structure of the collider arranged in the virtual object for measurement which concerns on 1st Embodiment. 第1の実施形態に係る測定用仮想オブジェクトに配置されたコライダーの構成について示した図(その3)である。It is a figure (the 3) which showed the structure of the collider arranged in the virtual object for measurement which concerns on 1st Embodiment. 第1の実施形態に係る測定処理部が、フィッティング処理を行う際の処理の流れについて示したフローチャートである。It is a flowchart which showed the process flow at the time of performing the fitting process by the measurement processing part which concerns on 1st Embodiment. 第1の実施形態に係るフィッティング処理画面の構成例について示した図である。It is a figure which showed the configuration example of the fitting processing screen which concerns on 1st Embodiment. 第1の実施形態に係るフィッティング処理画面において位置移動処理が行われる際の画面遷移の例について示した図である。It is a figure which showed the example of the screen transition at the time of performing the position movement processing in the fitting processing screen which concerns on 1st Embodiment. 第1の実施形態に係るフィッティング処理画面において、回転処理が行われる際の画面遷移の例について示した図である。It is a figure which showed the example of the screen transition at the time of performing a rotation process in the fitting process screen which concerns on 1st Embodiment. 第1の実施形態に係るフィッティング処理画面において寸法変更処理が行われる際の画面遷移の例(その1)について示した図である。It is a figure which showed the example (the 1) of the screen transition when the dimension change process is performed on the fitting process screen which concerns on 1st Embodiment. 第1の実施形態に係るフィッティング処理画面において寸法変更処理が行われる際の画面遷移の例(その2)について示した図である。It is a figure which showed the example (the 2) of the screen transition when the dimension change process is performed on the fitting process screen which concerns on 1st Embodiment. 第1の実施形態に係るフィッティング処理画面において寸法変更処理が行われる際の画面遷移の例(その3)について示した図である。It is a figure which showed the example (the 3) of the screen transition when the dimension change process is performed on the fitting process screen which concerns on 1st Embodiment. 第1の実施形態に係る測定用仮想オブジェクトの上面のコライダーがドラッグ操作され、寸法が変更(縮小)される例について示した図(その1)である。It is a figure (No. 1) which showed the example which the collider of the upper surface of the virtual object for measurement which concerns on 1st Embodiment is dragged, and the dimension is changed (reduced). 第1の実施形態に係る測定用仮想オブジェクトの上面のコライダーがドラッグ操作され、寸法が変更(縮小)される例について示した図(その1)である。It is a figure (No. 1) which showed the example which the collider of the upper surface of the virtual object for measurement which concerns on 1st Embodiment is dragged, and the dimension is changed (reduced). 第1の実施形態に係る属性情報入力画面の構成例について示した図である。It is a figure which showed the configuration example of the attribute information input screen which concerns on 1st Embodiment. 第1の実施形態に係る選択画面の構成例について示した図である。It is a figure which showed the configuration example of the selection screen which concerns on 1st Embodiment. 第1の実施形態に係る収納庫配置シミュレーション画面の構成例について示した図である。It is a figure which showed the configuration example of the storage arrangement simulation screen which concerns on 1st Embodiment. 第1の実施形態に係る収納庫配置シミュレーション画面の遷移の例(その1)について示した図である。It is a figure which showed the example (the 1) of the transition of the storage arrangement simulation screen which concerns on 1st Embodiment. 第1の実施形態に係る収納庫配置シミュレーション画面の遷移の例(その2)について示した図である。It is a figure which showed the example (the 2) of the transition of the storage arrangement simulation screen which concerns on 1st Embodiment. 第2の実施形態に係るフィッティング処理画面の構成例について示した図である。It is a figure which showed the configuration example of the fitting processing screen which concerns on 2nd Embodiment. 第2の実施形態に係るフィッティング処理を行う際の処理の流れについて示したフローチャートである。It is a flowchart which showed the flow of the process at the time of performing the fitting process which concerns on 2nd Embodiment. 第2の実施形態に係る第1のオートフィット処理の流れについて示したフローチャートである。It is a flowchart which showed the flow of the 1st autofit processing which concerns on 2nd Embodiment. 第2の実施形態に係る第1のオートフィット処理における測定装置と被測定物の配置例について示した図(斜視図)である。It is a figure (perspective view) which showed the arrangement example of the measuring apparatus and the object to be measured in the 1st autofit processing which concerns on 2nd Embodiment. 第2の実施形態に係る測定装置で第1のオートフィット処理が行われる際に表示されるフィッティング処理画面の例について示した図である。It is a figure which showed the example of the fitting processing screen which is displayed when the 1st autofit processing is performed in the measuring apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る測定装置で第1のオートフィット処理が行われる際の被測定物と測定用仮想オブジェクトの初期の位置関係を示した図(平面図)である。It is a figure (plan view) which showed the initial positional relationship between the object to be measured and the virtual object for measurement at the time of performing the 1st autofit processing in the measuring apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る測定装置で第1のオートフィット処理が行われる際の被測定物と測定用仮想オブジェクトの遷移の例(その1)について示した図(平面図)である。It is a figure (plan view) which showed the example (the 1) of the transition between the object to be measured and the virtual object for measurement at the time of performing the 1st autofit processing in the measuring apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る測定装置で第1のオートフィット処理が行われる際の被測定物と測定用仮想オブジェクトの遷移の例(その2)について示した図(平面図)である。It is a figure (plan view) which showed the example (the 2) of the transition between the object to be measured and the virtual object for measurement at the time of performing the 1st autofit processing in the measuring apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る測定装置で第1のオートフィット処理が行われる際の被測定物と測定用仮想オブジェクトの遷移の例(その3)について示した図(斜視図)である。It is a figure (perspective view) which showed the example (the 3) of the transition between the object to be measured and the virtual object for measurement at the time of performing the 1st autofit processing in the measuring apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る第2のオートフィット処理の流れについて示したフローチャートである。It is a flowchart which showed the flow of the 2nd autofit processing which concerns on 2nd Embodiment. 第2の実施形態に係る第2のオートフィット処理における測定装置と被測定物の配置例について示した図(斜視図)である。It is a figure (perspective view) which showed the arrangement example of the measuring apparatus and the object to be measured in the 2nd autofit processing which concerns on 2nd Embodiment. 第2の実施形態に係る測定装置で第2のオートフィット処理が行われる際に表示されるフィッティング処理画面の例について示した図である。It is a figure which showed the example of the fitting processing screen which is displayed when the 2nd autofit processing is performed in the measuring apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る測定装置で第2のオートフィット処理が行われる際に取得される特徴点群の分布の例について示した図(斜視図)である。It is a figure (perspective view) which showed the example of the distribution of the feature point group acquired when the 2nd autofit processing is performed by the measuring apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る測定装置で第2のオートフィット処理が行われる際の被測定物と測定用仮想オブジェクトの初期の位置関係を示した図(平面図)である。It is a figure (plan view) which showed the initial positional relationship between the object to be measured and the virtual object for measurement at the time of performing the 2nd autofit processing in the measuring apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る測定装置で第2のオートフィット処理が行われる際の被測定物と測定用仮想オブジェクトの遷移の例について示した図(平面図)である。It is a figure (plan view) which showed the example of the transition of the object to be measured and the virtual object for measurement at the time of performing the 2nd autofit processing in the measuring apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る第3のオートフィット処理の流れについて示したフローチャートである。It is a flowchart which showed the flow of the 3rd autofit processing which concerns on 2nd Embodiment. 第1の実施形態の変形例に係る測定用仮想オブジェクトに配置されたコライダーの構成について示した図(その1:斜視図)である。It is a figure which showed the structure of the collider arranged in the virtual object for measurement which concerns on the modification of 1st Embodiment (the 1: perspective view). 第1の実施形態の変形例に係る測定用仮想オブジェクトに配置されたコライダーの構成について示した図(その2:上面図)である。It is a figure which showed the structure of the collider arranged in the virtual object for measurement which concerns on the modification of 1st Embodiment (the 2: top view). 第1の実施形態の変形例に係るフィッティング処理画面において寸法変更処理が行われる際の画面遷移の例について示した図である。It is a figure which showed the example of the screen transition at the time of performing the dimension change processing in the fitting processing screen which concerns on the modification of 1st Embodiment. 第1の実施形態の変形例に係るフィッティング処理(寸法変更処理)において、操作辺に隣接する2つの面からいずれかを選択する処理の例について示した図である。It is a figure which showed the example of the process which selects one from two surfaces adjacent to the operation side in the fitting process (dimension change process) which concerns on the modification of 1st Embodiment.

(A)第1の実施形態
以下、本発明による測定装置、測定プログラム及び測定方法の第1の実施形態を、図面を参照しながら詳述する。
(A) First Embodiment Hereinafter, the first embodiment of the measuring device, the measuring program, and the measuring method according to the present invention will be described in detail with reference to the drawings.

(A−1)第1の実施形態の構成
図1は、この実施形態に係る測定装置10と被測定物について示した図である。
(A-1) Configuration of First Embodiment FIG. 1 is a diagram showing a measuring device 10 and an object to be measured according to this embodiment.

測定装置10は、測定装置10を所持するユーザ(以下、単に「ユーザ」と呼ぶ)の操作に応じて被測定物TOの外形に係るパラメータ(例えば、各部の寸法)を測定する装置である。 The measuring device 10 is a device that measures parameters (for example, dimensions of each part) related to the outer shape of the object to be measured TO according to the operation of a user (hereinafter, simply referred to as “user”) who owns the measuring device 10.

図2は、この実施形態の測定装置10の全体構成を示すブロック図である。 FIG. 2 is a block diagram showing the overall configuration of the measuring device 10 of this embodiment.

図2に示すように、測定装置10は、タッチパネルディスプレイ11、カメラ12、制御部13、及びセンサ部14を有している。 As shown in FIG. 2, the measuring device 10 includes a touch panel display 11, a camera 12, a control unit 13, and a sensor unit 14.

制御部13は、測定装置10の全体を制御する機能を担っており、被測定物TOの外形の寸法を測定する測定処理部131を有している。 The control unit 13 has a function of controlling the entire measuring device 10, and has a measurement processing unit 131 for measuring the external dimensions of the object to be measured TO.

制御部13は、図示しないコンピュータにプログラム(実施形態に係る測定プログラムを含む)をインストールすることによりソフトウェア的に構成するようにしてもよいし、ハードウェア的に構成(例えば、専用の半導体チップ等を用いて構成)するようにしてもよい。この実施形態では、制御部13は、コンピュータを用いてソフトウェア的に構成されているものとして説明する。 The control unit 13 may be configured in software by installing a program (including a measurement program according to the embodiment) on a computer (not shown), or may be configured in hardware (for example, a dedicated semiconductor chip or the like). It may be configured by using. In this embodiment, the control unit 13 will be described as being configured in software using a computer.

カメラ12は、被測定物TOが配置された現実空間を撮像することが可能な撮像手段である。 The camera 12 is an imaging means capable of imaging the real space in which the object TO to be measured is arranged.

タッチパネルディスプレイ11は、ユーザに画像(例えば、操作画面等の画像)を表示出力(提示)することが可能な表示手段(ディスプレイ機能)と、ユーザからの操作を受け付けることが可能な操作手段(タッチパネル機能)を備えている。 The touch panel display 11 has a display means (display function) capable of displaying (presenting) an image (for example, an image of an operation screen or the like) to the user, and an operation means (touch panel) capable of receiving an operation from the user. Function).

センサ部14は、当該測定装置10の動きを検知するためのセンサ群である。センサ部14には、例えば、加速度センサやジャイロセンサを含むセンサ群を適用することができる。 The sensor unit 14 is a group of sensors for detecting the movement of the measuring device 10. For example, a sensor group including an acceleration sensor and a gyro sensor can be applied to the sensor unit 14.

以上のように、測定装置10は、ハードウェア的には、例えば、スマートホンやタブレットPC等のタッチパネル、カメラ、及び各種センサを備える情報処理装置を用いて構成することができる。この実施形態では、測定装置10は、スマートホンを用いて構成されているものとして説明する。すなわち、測定処理部131は、スマートホンにインストール可能なアプリケーションプログラムであるものとして説明する。 As described above, in terms of hardware, the measuring device 10 can be configured by using, for example, an information processing device including a touch panel such as a smartphone or a tablet PC, a camera, and various sensors. In this embodiment, the measuring device 10 will be described as being configured by using a smart phone. That is, the measurement processing unit 131 will be described as being an application program that can be installed on the smartphone.

次に、測定処理部131の概要について説明する。 Next, the outline of the measurement processing unit 131 will be described.

測定処理部131は、AR(Augmented Reality;拡張現実)技術により、カメラ12で撮像された現実空間の画像(以下、「撮像画像」と呼ぶ)に、現実空間の座標が紐づけられた仮想オブジェクト(いわゆるARオブジェクト)をレンダリング(合成)した画像を生成してタッチパネルディスプレイ11に表示させる処理を行う。ここでは、測定処理部131は、被測定物TOの寸法(例えば、幅、高さ、及び奥行)を測定するための仮想オブジェクトである測定用仮想オブジェクトMOを生成して配置する処理を行う。また、測定処理部131は、測定用仮想オブジェクトMOについて、ユーザの操作に応じて編集(例えば、辺や頂点の移動を伴う形状の変更や、位置及び姿勢の変更等)を行う。このとき、タッチパネルディスプレイ11上に表示(レンダリング)される画像には、測定装置10の位置や姿勢によっては、測定用仮想オブジェクトMOと共に、被測定物TOを撮像した画像(以下、「被測定物画像GT」と呼ぶ)も表示される。これにより、測定装置10(測定処理部131)では、ユーザから、タッチパネルディスプレイ11上で、測定用仮想オブジェクトMOの位置姿勢及び形状を、被測定物画像GTに合わせる(フィットさせる)操作を受け付けることができる。 The measurement processing unit 131 is a virtual object in which the coordinates of the real space are linked to the image of the real space (hereinafter referred to as “captured image”) captured by the camera 12 by AR (Augmented Reality) technology. A process of generating a rendered (composited) image of (so-called AR object) and displaying it on the touch panel display 11 is performed. Here, the measurement processing unit 131 performs a process of generating and arranging a measurement virtual object MO, which is a virtual object for measuring the dimensions (for example, width, height, and depth) of the object to be measured TO. In addition, the measurement processing unit 131 edits the measurement virtual object MO according to the user's operation (for example, changing the shape accompanied by the movement of sides and vertices, changing the position and posture, and the like). At this time, the image displayed (rendered) on the touch panel display 11 includes an image of the object to be measured TO together with the virtual object MO for measurement depending on the position and orientation of the measuring device 10 (hereinafter, “object to be measured”). (Called "image GT") is also displayed. As a result, the measuring device 10 (measurement processing unit 131) receives from the user an operation of matching (fitting) the position / orientation and shape of the virtual object MO for measurement with the image GT of the object to be measured on the touch panel display 11. Can be done.

したがって、ユーザの操作により測定用仮想オブジェクトMOの位置姿勢及び形状が、被測定物画像GTと合致したとき(フィットしたとき)、測定用仮想オブジェクトMOの形状(現実空間上での形状)と被測定物画像GTの形状が等しくなる。 Therefore, when the position / orientation and shape of the virtual object MO for measurement match (fit) with the image GT of the object to be measured by the user's operation, the shape of the virtual object MO for measurement (shape in the real space) and the subject The shapes of the measured object image GT are equal.

さらに、測定装置10(測定処理部131)では、測定用仮想オブジェクトMOの現実空間における形状(例えば、各頂点の3D座標)を保持しているため、測定用仮想オブジェクトMOが現実空間に存在した場合における形状に係るパラメータ(例えば、幅、高さ、及び奥行等)を把握することができる。そこで、この実施形態の測定装置10(測定処理部131)は、測定用仮想オブジェクトMOが現実空間に存在した場合における形状に係るパラメータをリアルタイムにタッチパネルディスプレイ11上に表示するものとする。 Further, since the measuring device 10 (measurement processing unit 131) holds the shape of the virtual object MO for measurement in the real space (for example, the 3D coordinates of each vertex), the virtual object MO for measurement exists in the real space. It is possible to grasp the parameters related to the shape in the case (for example, width, height, depth, etc.). Therefore, the measuring device 10 (measurement processing unit 131) of this embodiment displays the parameters related to the shape when the virtual object MO for measurement exists in the real space on the touch panel display 11 in real time.

以上のように、測定装置10(測定処理部131)では、ユーザの操作により測定用仮想オブジェクトMOの編集を受け付けつつ、測定用仮想オブジェクトMOが現実空間に存在した場合における形状に係るパラメータをリアルタイムで表示することで、被測定物TOの形状に係るパラメータ(例えば、幅、高さ、及び奥行等)を測定することが可能となる。測定処理部131の詳細処理については後述する。 As described above, the measuring device 10 (measurement processing unit 131) accepts the editing of the virtual object MO for measurement by the user's operation, and in real time obtains the parameters related to the shape when the virtual object MO for measurement exists in the real space. By displaying with, it is possible to measure parameters (for example, width, height, depth, etc.) related to the shape of the object to be measured TO. The detailed processing of the measurement processing unit 131 will be described later.

測定処理部131では、ARに関する画像処理や情報処理等を行う構成要素としてAR処理部131aを備えている。この実施形態の例では、AR処理部131aには、種々のARシステム(ミドルウェア/プラットフォーム)を適用することができるものとして説明する。具体的には、この実施形態の例では、AR処理部131aにARシステムとしてARkit(登録商標)が適用されるものとして説明する。なお、AR処理部131aに適用するARのシステムはARkitに限定されず種々の環境を適用することができる。例えば、測定装置10のOSがAndroid(登録商標)であればARCore(登録商標)を用いてもよいことは当然である。すなわち、測定処理部131(AR処理部131a)において、ARの基本的な機能については種々のARシステムを適用することができるため、本明細書ではARに関する基本的な処理(例えば、ARkitやARCOREを用いて実現可能な画像処理等)自体については詳しい説明を省略する。 The measurement processing unit 131 includes an AR processing unit 131a as a component for performing image processing, information processing, and the like related to AR. In the example of this embodiment, various AR systems (middleware / platform) can be applied to the AR processing unit 131a. Specifically, in the example of this embodiment, ARkit (registered trademark) will be described as an AR system applied to the AR processing unit 131a. The AR system applied to the AR processing unit 131a is not limited to the AR kit, and various environments can be applied. For example, if the OS of the measuring device 10 is Android (registered trademark), it is natural that ARCore (registered trademark) may be used. That is, in the measurement processing unit 131 (AR processing unit 131a), various AR systems can be applied to the basic functions of AR. Therefore, in the present specification, basic processing related to AR (for example, ARkit or ARCORE). The detailed description of the image processing that can be realized by using the above) itself will be omitted.

また、測定処理部131は、種々のソフトウェアの統合開発環境(ARシステムを用いたソフトウェア開発が可能なソフトウェア統合開発環境)を用いて構築するようにしてもよい。この実施形態では、例として、測定処理部131は、Unityを用いて開発されたものとして説明する。したがって、測定処理部131の処理説明において、Unity上のライブラリ等で定義されるオブジェクト(後述するコライダー等)を用いて説明する場合があるが、同様のオブジェクトについて他の統合開発環境を用いて構築してもよいことは当然である。 Further, the measurement processing unit 131 may be constructed by using an integrated development environment of various software (a software integrated development environment capable of software development using an AR system). In this embodiment, as an example, the measurement processing unit 131 will be described as being developed using Unity. Therefore, in the processing description of the measurement processing unit 131, an object defined in a library or the like on Unity (a collider or the like described later) may be used, but a similar object may be described by using another integrated development environment. Of course, you can build it.

AR処理部131aは、センサ部14、タッチパネルディスプレイ11、及びカメラ12から得られる情報や画像を用いて種々のARに関する処理を実行する。なお、センサ部14については、少なくともArkitやARCore等のARシステムで必要とされるセンサ群(例えば、加速度センサやジャイロセンサを含むセンサ群)を備えているものとし、詳しい説明を省略する。 The AR processing unit 131a executes various AR-related processes using information and images obtained from the sensor unit 14, the touch panel display 11, and the camera 12. It is assumed that the sensor unit 14 is provided with at least a sensor group (for example, a sensor group including an acceleration sensor and a gyro sensor) required for an AR system such as Arkit or ARCore, and detailed description thereof will be omitted.

(A−2)第1の実施形態の動作
次に、以上のような構成を有するこの実施形態の測定装置10の動作(実施形態に係る測定方法の各手順)を説明する。
(A-2) Operation of First Embodiment Next, the operation of the measuring device 10 of this embodiment having the above configuration (each procedure of the measuring method according to the embodiment) will be described.

ここでは、ユーザが、測定装置10を用いて、被測定物TOの寸法を測定する際の測定処理部131の動作(測定プログラムの動作)を中心に説明する。 Here, the operation (operation of the measurement program) of the measurement processing unit 131 when the user measures the dimensions of the object to be measured TO by using the measuring device 10 will be mainly described.

図3、測定装置10(測定処理部131)が、起動する際の動作(起動シーケンス)について示したフローチャートである。 FIG. 3 is a flowchart showing an operation (starting sequence) when the measuring device 10 (measurement processing unit 131) is started.

ここでは、まず、ユーザの操作に応じて、測定装置10(制御部13)が、測定処理部131に対応するアプリケーションを起動したものとする(S101)。アプリケーション起動の操作については、種々のスマートホンやタブレットPCの基本操作を適用することができるため、詳しい説明を省略する。 Here, first, it is assumed that the measuring device 10 (control unit 13) has started the application corresponding to the measurement processing unit 131 in response to the user's operation (S101). Since basic operations of various smart phones and tablet PCs can be applied to the operation of starting the application, detailed description thereof will be omitted.

測定処理部131は、起動すると、AR処理部131aを用いて、カメラ12の視野内に写る画像から平面(例えば、床や机の上面等の平面)を検出する処理(以下、「平面検出処理」と呼ぶ)を行う(S102)。平面検出処理自体については、種々のARシステムにおけるライブラリを適用することができるため、詳しい説明は省略する。 When the measurement processing unit 131 is activated, the AR processing unit 131a is used to detect a plane (for example, a plane such as a floor or the upper surface of a desk) from an image captured in the field of view of the camera 12 (hereinafter, “plane detection process””. (Called) (S102). Since libraries in various AR systems can be applied to the plane detection process itself, detailed description thereof will be omitted.

次に、測定処理部131は、AR処理部131aを用いて、検出した平面上にマーカのオブジェクト(3Dモデル)を表示させる(S103)。 Next, the measurement processing unit 131 uses the AR processing unit 131a to display the marker object (3D model) on the detected plane (S103).

図4は、測定処理部131が起動した際に、タッチパネルディスプレイ11に表示される操作画面の遷移について示した図である。 FIG. 4 is a diagram showing a transition of an operation screen displayed on the touch panel display 11 when the measurement processing unit 131 is activated.

具体的には、測定処理部131は、AR処理部131aを用いて、タッチパネルディスプレイ11の画面中央からカメラの光軸方向にレイを飛ばしてヒットする平面(ステップS102で検出した平面)の上にマーカのオブジェクトを配置させるものとする。この時ユーザにより、被測定物TOが配置されている平面がタッチパネルディスプレイ11の画面中央に位置するように測定装置10を操作されたものとする。 Specifically, the measurement processing unit 131 uses the AR processing unit 131a to shoot a ray from the center of the screen of the touch panel display 11 in the optical axis direction of the camera to hit the object (the plane detected in step S102). The marker object shall be placed. At this time, it is assumed that the measuring device 10 is operated by the user so that the plane on which the object to be measured TO is arranged is located at the center of the screen of the touch panel display 11.

ここでは、図4(a)に示すように、被測定物TOが設置された床面FにマーカのオブジェクトM(下向きの円錐形状の3Dモデル)が配置された表示となっている。 Here, as shown in FIG. 4A, the display is such that the marker object M (downward conical 3D model) is arranged on the floor surface F on which the object to be measured TO is installed.

ここで、ユーザ(ユーザの手UH)により、タッチパネルディスプレイ11の画面操作(タッチ)が検出されたものとする(S104)。 Here, it is assumed that the screen operation (touch) of the touch panel display 11 is detected by the user (user's hand UH) (S104).

そうすると、測定処理部131は、AR処理部131aを用いて、マーカMの位置に、所定の初期形状の測定用仮想オブジェクトMOを配置する(S105)。測定処理部131は、初期形状の測定用仮想オブジェクトMOを配置すると、ユーザの操作に応じて、測定用仮想オブジェクトMOの形状を、同じ画面上に写っている被測定物画像GT(被測定物TO)の形状(外形)と一致(フィット)させる処理(以下、「フィッティング処理」と呼ぶ)に移行する。 Then, the measurement processing unit 131 uses the AR processing unit 131a to arrange the measurement virtual object MO having a predetermined initial shape at the position of the marker M (S105). When the measurement processing unit 131 arranges the measurement virtual object MO of the initial shape, the shape of the measurement virtual object MO is displayed on the same screen in response to the user's operation. The process shifts to a process (hereinafter referred to as "fitting process") for matching (fitting) the shape (outer shape) of the TO).

言い換えると、測定処理部131において、測定用仮想オブジェクトMOは、ユーザの操作(主としてタッチパネルディスプレイ11上の操作)に応じて、形状が変更するような設定となっている。 In other words, the measurement processing unit 131 is set so that the shape of the measurement virtual object MO changes according to the user's operation (mainly the operation on the touch panel display 11).

ここで、測定用仮想オブジェクトMOが図4(b)に示すような直方体であるものとすると、測定処理部131は、フィッティング処理において、測定用仮想オブジェクトMOに対して、位置(床面F上の位置)、姿勢(床面F上の向き)、及び各寸法(幅、高さ、及び奥行)の変更を受け付ける必要がある。測定処理部131が、測定用仮想オブジェクトMOのフィッティング処理については、種々の3Dモデルの位置、姿勢及び各寸法の変更を受け付けることが可能なGUI(3Dモデルの編集を受け付けるGUI)を適用することができる。しかしながら、一般的な3Dモデルの編集を受け付けるGUIでは、ユーザの思い通りの位置にユーザの思い通りの形状を設置することは難しい場合がある。そのため、この実施形態の測定用仮想オブジェクトMOでは、以下のような構成を適用するものとする。なお、測定用仮想オブジェクトMOの構成については、以下の構成に限定されないものである。 Here, assuming that the measurement virtual object MO is a rectangular parallelepiped as shown in FIG. 4B, the measurement processing unit 131 is positioned (on the floor surface F) with respect to the measurement virtual object MO in the fitting process. Position), posture (direction on floor F), and each dimension (width, height, and depth) need to be accepted. The measurement processing unit 131 applies a GUI (GUI that accepts editing of the 3D model) capable of accepting changes in the positions, postures, and dimensions of various 3D models for the fitting process of the virtual object MO for measurement. Can be done. However, in a GUI that accepts editing of a general 3D model, it may be difficult to set the desired shape of the user at the desired position of the user. Therefore, the following configuration is applied to the measurement virtual object MO of this embodiment. The configuration of the virtual object MO for measurement is not limited to the following configuration.

この実施形態では、測定用仮想オブジェクトMOの形状は、直方体であるものとするが、測定用仮想オブジェクトMOの形状は被測定物TOと一致する形状であれば、他の形状(例えば、円錐形状や円柱形状等)であってもよい。 In this embodiment, the shape of the virtual object MO for measurement is assumed to be a rectangular parallelepiped, but if the shape of the virtual object MO for measurement matches the shape of the object to be measured TO, another shape (for example, a conical shape) is used. , Cylindrical shape, etc.).

図4(b)では、図4(a)においてマーカMの配置されていた位置に、測定用仮想オブジェクトMOが配置されている。この実施形態の例では、図4(b)に示すように、初期状態において、測定用仮想オブジェクトMOは、1辺がタッチパネルディスプレイ11の画面上で正対(カメラ12の光軸と正対)するように配置されるものとする。 In FIG. 4B, the measurement virtual object MO is arranged at the position where the marker M is arranged in FIG. 4A. In the example of this embodiment, as shown in FIG. 4B, in the initial state, one side of the measurement virtual object MO faces the screen of the touch panel display 11 (facing the optical axis of the camera 12). It shall be arranged so as to.

この実施形態では、図示の都合上、測定用仮想オブジェクトMOは各辺が点線で描かれ、各面は透明となっているが、測定用仮想オブジェクトMOを構成する辺や面の描画方法(描画パターン)は限定されないものである。例えば、測定用仮想オブジェクトMOの各面を半透明(透過;メッシュ)のパターンとするようにしてもよい。 In this embodiment, for convenience of illustration, each side of the measurement virtual object MO is drawn with a dotted line and each side is transparent, but a drawing method (drawing) of the sides and faces constituting the measurement virtual object MO The pattern) is not limited. For example, each surface of the virtual object MO for measurement may have a semi-transparent (transparent; mesh) pattern.

以下では、図4(b)に示すように、測定用仮想オブジェクトMOにおいて、初期状態で手前に写っている面を正面FFと呼び、正面FFの上側の面を上面FUと呼ぶものとする。また、以下では、測定用仮想オブジェクトMOにおいて、正面FFの下側の面(床面Fに接地する面)を下面FS、正面FFと対向する面を背面FB、正面FFの方から見て左側の面を左面FL、正面FFの方から見て右側の面をFRとそれぞれ呼ぶものとする。 In the following, as shown in FIG. 4B, in the measurement virtual object MO, the surface in the foreground in the initial state is referred to as the front FF, and the upper surface of the front FF is referred to as the upper surface FU. Further, in the following, in the measurement virtual object MO, the lower surface of the front FF (the surface grounded to the floor surface F) is the lower surface FS, the surface facing the front FF is the back FB, and the left side when viewed from the front FF. The surface on the left side FL and the surface on the right side when viewed from the front FF are referred to as FR.

図5〜図8は、測定用仮想オブジェクトMOの構成の例について示した図である。 5 to 8 are diagrams showing an example of the configuration of the virtual object MO for measurement.

図5は、測定用仮想オブジェクトMOを構成する各辺及び各面を特定する符号について示した図である。 FIG. 5 is a diagram showing a reference numeral for specifying each side and each surface constituting the virtual object MO for measurement.

図5(a)は、測定用仮想オブジェクトMOを正面FF側から見た場合の斜視図である。また、図5(b)は、測定用仮想オブジェクトMOを背面FB側から見た場合の斜視図である。 FIG. 5A is a perspective view of the measurement virtual object MO as viewed from the front FF side. Further, FIG. 5B is a perspective view of the measurement virtual object MO as viewed from the rear FB side.

図5に示すように、以下では、測定用仮想オブジェクトMOにおいて、上面FUと正面FFとの間の辺をS_UF、上面FUと背面FBとの間の辺をS_UB、上面FUと左面FLとの間の辺をS_UL、上面FUと右面FRとの間の辺をS_UR、正面FFと左面FLとの間の辺をS_FL、正面FFと右面FRとの間の辺をS_FR、背面FBと左面FLとの間の辺をS_BL、背面FBと右面FRとの間の辺をS_BR、上面FUと正面FFとの間の辺をS_UF、上面FUと背面FBとの間の辺をS_UB、上面FUと左面FLとの間の辺をS_UL、上面FUと右面FRとの間の辺をS_URとそれぞれ呼ぶものとする。 As shown in FIG. 5, in the following, in the measurement virtual object MO, the side between the upper surface FU and the front surface FF is S_UF, the side between the upper surface FU and the back surface FB is S_UB, and the upper surface FU and the left surface FL. The side between them is S_UL, the side between the upper surface FU and the right side FR is S_UR, the side between the front FF and the left side FL is S_FL, the side between the front side FF and the right side FR is S_FR, and the side between the back side FB and the left side FL. The side between and S_BL, the side between the back FB and the right FR is S_BR, the side between the top FU and the front FF is S_UF, the side between the top FU and the back FB is S_UB, and the top FU. The side between the left surface FL is referred to as S_UL, and the side between the upper surface FU and the right surface FR is referred to as S_UR.

また、図5に示すように、以下では、測定用仮想オブジェクトMOにおいて、正面FF/背面FBの水平方向の寸法を幅LW、正面FF/背面FBの垂直方向の寸法を高さLH、左面FL/右面FRの水平方向の寸法を奥行LDと呼ぶものとする。 Further, as shown in FIG. 5, in the following, in the measurement virtual object MO, the horizontal dimension of the front FF / back FB is the width LW, the vertical dimension of the front FF / back FB is the height LH, and the left FL. / The horizontal dimension of the right side FR is called the depth LD.

測定処理部131は、フィッティング処理の際、測定用仮想オブジェクトMOを構成する各辺についてドラッグ(タッチパネルディスプレイ11上で指を画面に触れたままま、目的の場所まで移動する動作)の操作により、変形(幅LW、高さLH、奥行LDの変更)を受け付けることが可能であるものとする。しかしながら、測定用仮想オブジェクトMOを構成する各辺は線の分の幅しかなくドラッグ操作(タッチした位置からレイを飛ばして辺にヒットさせる操作)が成功し難い。そのため、この実施形態の測定処理部131では、に示すように、測定用仮想オブジェクトMOでドラッグ操作を受け付ける辺の周辺に、所定の形状のコライダーを設けるものとする。コライダーは、当たり判定(タッチした位置からレイを飛ばした際の衝突判定)により操作を受け付けることが可能な不可視のオブジェクト(操作用オブジェクト)である。コライダーはUnity/ARkit等の開発環境で定義可能なオブジェクトである。 During the fitting process, the measurement processing unit 131 is deformed by dragging (moving the finger to the target location while touching the screen on the touch panel display 11) for each side constituting the measurement virtual object MO. (Changes in width LW, height LH, and depth LD) can be accepted. However, each side constituting the virtual object MO for measurement has only the width of a line, and it is difficult to succeed in the drag operation (the operation of skipping a ray from the touched position and hitting the side). Therefore, in the measurement processing unit 131 of this embodiment, as shown in, a collider having a predetermined shape is provided around the side that accepts the drag operation in the measurement virtual object MO. A collider is an invisible object (operation object) that can accept an operation by a hit determination (collision determination when a ray is shot from a touched position). A collider is an object that can be defined in a development environment such as Unity / ARkit.

この実施形態では、測定用仮想オブジェクトMOの各辺に対応するコライダーが、測定用仮想オブジェクトMOの各面に配置(面形状のコライダー)されているものとする。例えば、測定用仮想オブジェクトMOでは、各コライダーは、測定用仮想オブジェクトMOの各面において、各辺を底辺とする三角形の形状としてもよい。 In this embodiment, it is assumed that colliders corresponding to each side of the measurement virtual object MO are arranged on each surface of the measurement virtual object MO (plane shape collider). For example, in the measurement virtual object MO, each collider may have a triangular shape with each side as the base on each surface of the measurement virtual object MO.

図6は、この実施形態に測定用仮想オブジェクトMOにおけるコライダーの配置構成の例について示した図である。 FIG. 6 is a diagram showing an example of a collider arrangement configuration in the measurement virtual object MO in this embodiment.

図6(a)は、測定用仮想オブジェクトMOについて正面FF側から見た斜視図であり、図6(b)は測定用仮想オブジェクトMOについて背面FB側から見た斜視図である。 FIG. 6A is a perspective view of the measurement virtual object MO seen from the front FF side, and FIG. 6B is a perspective view of the measurement virtual object MO seen from the back FB side.

図6の例では、測定用仮想オブジェクトMOの各面上で、対角線により分割(四角形の面上で2本の対角線により4つに分割)された各領域によりコライダーが形成されるものとする。言い換えると、この実施形態において、測定用仮想オブジェクトMOを構成する各コライダーの形状は、測定用仮想オブジェクトMOの各面において、各辺により一辺(底辺)が形成され、さらに残りの2辺が当該面の対角線により形成された三角形(二等辺三角形)の形状であるものとする。 In the example of FIG. 6, it is assumed that a collider is formed on each surface of the virtual object MO for measurement by each region divided by a diagonal line (divided into four by two diagonal lines on a quadrangular surface). .. In other words, in this embodiment, the shape of each collider constituting the measurement virtual object MO is such that one side (bottom side) is formed by each side on each surface of the measurement virtual object MO, and the remaining two sides are further formed. It shall be in the shape of a triangle (isosceles triangle) formed by the diagonal lines of the surface.

したがって、この実施形態において、測定用仮想オブジェクトMOでは、各面において4辺それぞれに対応するコライダーが形成されるため、合計で24個のコライダーが形成されることになる。 Therefore, in this embodiment, in the measurement virtual object MO, colliders corresponding to each of the four sides are formed on each surface, so that a total of 24 colliders are formed.

図6に示すように、測定用仮想オブジェクトMOにおいて、正面FF上には、辺S_UF、S_SF、S_FL、S_FRのそれぞれに対応するコライダーC_FU、C_FS、C_FL、C_FRが配置されている。また、背面FB上には、辺S_UB、S_SB、S_BL、S_BRのそれぞれに対応するコライダーC_BU、C_BS、C_BL、C_BRが配置されている。さらに、上面FU上には、辺S_UF、S_UB、S_UL、S_URのそれぞれに対応するコライダーC_UF、C_UB、C_UL、C_URが配置されている。さらにまた、下面FS上には、辺S_SF、S_SB、S_SL、S_SRのそれぞれに対応するコライダーC_SF、C_SB、C_SL、C_SRが配置されている。また、左面FL上には、辺S_UL、S_SL、S_FL、S_BLのそれぞれに対応するコライダーC_LU、C_LS、C_LF、C_LBが配置されている。さらに、右面FR上には、辺S_UR、S_SR、S_FR、S_BRのそれぞれに対応するC_RU、C_RS、C_RF、C_RBが配置されている。それぞれのコライダーは、測定用仮想オブジェクトMOにおいて、当該コライダーが形成された面上で、当該コライダーが対応する辺と直交する方向の寸法変更(測定用仮想オブジェクトMOの寸法変更)を受け付けるオブジェクト(操作オブジェクト)として機能する。 As shown in FIG. 6, in the measurement virtual object MO, colliders C_FU, C_FS, C_FL, and C_FR corresponding to the sides S_UF, S_SF, S_FL, and S_FR are arranged on the front FF. Further, colliders C_BU, C_BS, C_BL, and C_BR corresponding to the sides S_UB, S_SB, S_BL, and S_BR are arranged on the back surface FB. Further, colliders C_UF, C_UB, C_UL, and C_UR corresponding to the sides S_UF, S_UB, S_UL, and S_UR are arranged on the upper surface FU. Furthermore, colliders C_SF, C_SB, C_SL, and C_SR corresponding to the sides S_SF, S_SB, S_SL, and S_SR are arranged on the lower surface FS. Further, colliders C_LU, C_LS, C_LF, and C_LB corresponding to the sides S_UL, S_SL, S_FL, and S_BL are arranged on the left FL. Further, C_RU, C_RS, C_RF, and C_RB corresponding to the sides S_UR, S_SR, S_FR, and S_BR are arranged on the right side FR. Each collider accepts a dimension change (dimension change of the measurement virtual object MO) in the direction orthogonal to the side corresponding to the collider on the plane on which the collider is formed in the measurement virtual object MO. Functions as an object (operation object).

図7は、測定用仮想オブジェクトMOに配置されるコライダーの構成例について示した図である。 FIG. 7 is a diagram showing a configuration example of a collider arranged in the virtual object MO for measurement.

FF上に配置された辺S_FRに対応するコライダーC_FR(辺S_FRと正面FF上の対角線により囲われた三角形状の領域)にハッチ(斜線のパターン)を付して図示している。この場合、このコライダーC_FRは、形成された正面FF上で、コライダーC_FRが対応する辺S_FRと直交する方向は幅方向となるため、コライダーC_FRは幅LHの寸法変更を受け付けるコライダーとして機能することになる。 The collider C_FR (triangular region surrounded by the diagonal line on the side S_FR and the front FF) corresponding to the side S_FR arranged on the FF is illustrated with a hatch (diagonal line pattern). In this case, since the collider C_FR is in the width direction on the formed front FF in the direction orthogonal to the corresponding side S_FR, the collider C_FR serves as a collider that accepts the dimension change of the width LH. It will work.

各コライダーは、対応する辺と対角線により囲われた領域内であれば、その形状や配置位置は限定されないものである。例えば、図8に示すように、各コライダーは、対応する辺と対角線により囲われた領域内であれば、円形や四角形等のその他の図形(多角形)状であってもよい。 The shape and arrangement position of each collider is not limited as long as it is within the area surrounded by the corresponding sides and diagonal lines. For example, as shown in FIG. 8, each collider may be in the shape of another figure (polygon) such as a circle or a quadrangle as long as it is within the area surrounded by the corresponding side and the diagonal line.

次に、測定処理部131が、フィッティング処理を行う際の処理の例について、図9のフローチャートを用いて説明する。 Next, an example of processing when the measurement processing unit 131 performs the fitting processing will be described with reference to the flowchart of FIG.

測定処理部131は、フィッティング処理を開始すると、まず、タッチパネルディスプレイ11の画面上に必要なオブジェクトを配置してフィッティング処理の画面(以下、「フィッティング処理画面」と呼ぶ)を構成する(S201)。 When the measurement processing unit 131 starts the fitting process, first, a necessary object is arranged on the screen of the touch panel display 11 to form a fitting process screen (hereinafter, referred to as a “fitting process screen”) (S201).

図10は、フィッティング処理画面の構成例について示した図である。 FIG. 10 is a diagram showing a configuration example of a fitting processing screen.

図10に示すフィッティング処理画面では、測定用仮想オブジェクトMOの回転(姿勢変更)を受け付けるための2つのボタンBL、BRと、現在の測定用仮想オブジェクトMOが現実世界に存在した場合の各パラメータ(以下、「測定用仮想オブジェクトパラメータ」と呼ぶ)を表示するためのフィールドFPと、現在のフィッティング処理を完了することを受け付けるためのボタンBFEと、が表示されている。 In the fitting processing screen shown in FIG. 10, two buttons BL and BR for accepting the rotation (attitude change) of the virtual object MO for measurement and each parameter when the current virtual object MO for measurement exists in the real world ( Hereinafter, a field FP for displaying "virtual object parameter for measurement") and a button BFE for accepting the completion of the current fitting process are displayed.

この実施形態の例では、測定用仮想オブジェクトパラメータとして、測定用仮想オブジェクトMOの幅LW、高さLH、奥行LD、及び体積(LW×LH×LD)のパラメータが表示されている。フィールドFPに表示する測定用仮想オブジェクトパラメータの数や組み合わせについては限定されないものであり、種々の組み合わせを適用することができる。測定処理部131は、測定用仮想オブジェクトMOが現実空間にあったとした場合における測定用仮想オブジェクトパラメータ(幅LW、高さLH、奥行LD、及び体積)を計算し、フィールドFPに表示する。図10に示すフィッティング処理画面では、初期状態ではフィールドFPに、初期状態の測定用仮想オブジェクトMOに関する各パラメータが表示されている。測定処理部131(AR処理部131a)では、測定用仮想オブジェクトMOの現実空間における座標(グローバル座標/3D座標)が把握されているため、測定用仮想オブジェクトパラメータの算出は可能である。 In the example of this embodiment, the parameters of the width LW, the height LH, the depth LD, and the volume (LW × LH × LD) of the measurement virtual object MO are displayed as the measurement virtual object parameters. The number and combinations of measurement virtual object parameters displayed in the field FP are not limited, and various combinations can be applied. The measurement processing unit 131 calculates the measurement virtual object parameters (width LW, height LH, depth LD, and volume) when the measurement virtual object MO is in the real space, and displays it in the field FP. In the fitting processing screen shown in FIG. 10, each parameter related to the measurement virtual object MO in the initial state is displayed in the field FP in the initial state. Since the measurement processing unit 131 (AR processing unit 131a) grasps the coordinates (global coordinates / 3D coordinates) of the measurement virtual object MO in the real space, it is possible to calculate the measurement virtual object parameters.

そしてその後、測定処理部131は、フィッティング処理画面において、タッチパネルディスプレイ11に対する所定の操作を検出するまで待機し(S202)、その操作の内容に応じたフィッティング処理(測定用仮想オブジェクトMOの編集処理)に移行する。 After that, the measurement processing unit 131 waits until a predetermined operation on the touch panel display 11 is detected on the fitting processing screen (S202), and the fitting process according to the content of the operation (editing process of the virtual object MO for measurement). Move to.

具体的には、この実施形態の測定処理部131は、フィッティング処理画面において、少なくとも以下の3つの操作のうち、いずれかを検出した場合に対応するフィッティング処理(測定用仮想オブジェクトMOの編集処理)に移行する。 Specifically, the measurement processing unit 131 of this embodiment performs fitting processing (editing processing of the virtual object MO for measurement) corresponding to the case where at least one of the following three operations is detected on the fitting processing screen. Move to.

測定処理部131は、フィッティング処理画面において、2点のタッチ(2本指)でのドラッグ操作が発生した場合、測定用仮想オブジェクトMOの位置を移動させる処理(以下、「位置移動処理」と呼ぶ)を行う(S203)。位置移動処理の詳細については後述する。測定処理部131は、位置移動処理の実行後、ステップS202に戻って次の操作検出まで待機する。 The measurement processing unit 131 moves the position of the virtual object MO for measurement when a drag operation with two touches (two fingers) occurs on the fitting processing screen (hereinafter, referred to as “position movement processing”). ) (S203). The details of the position movement process will be described later. After executing the position movement process, the measurement processing unit 131 returns to step S202 and waits until the next operation detection.

また、測定処理部131は、フィッティング処理画面において、いずれかの回転ボタンBL、BRのタッチが発生した場合、測定用仮想オブジェクトMOの姿勢を回転(タッチされたボタンに応じた方向に回転)させる処理(以下、「回転処理」と呼ぶ)を行う(S204)。回転処理の詳細については後述する。測定処理部131は、回転処理の実行後、ステップS202に戻って次の操作検出まで待機する。 Further, when the measurement processing unit 131 touches any of the rotation buttons BL and BR on the fitting processing screen, the measurement processing unit 131 rotates the posture of the measurement virtual object MO (rotates in the direction corresponding to the touched button). A process (hereinafter referred to as "rotation process") is performed (S204). The details of the rotation process will be described later. After executing the rotation process, the measurement processing unit 131 returns to step S202 and waits until the next operation detection.

さらに、測定処理部131は、フィッティング処理画面において、1点のタッチ(1本指)で、測定用仮想オブジェクトMOのいずれかのコライダーがドラッグ操作された場合に、測定用仮想オブジェクトMOのいずれかの寸法を変更する処理(以下、「寸法変更処理」と呼ぶ)を行う(S205)。寸法変更処理の詳細については後述する。測定処理部131は、ステップS205の寸法変更処理の後、変更した寸法に基づいて測定用仮想オブジェクトパラメータを更新し、フィールドFPに更新後の測定用仮想オブジェクトパラメータを表示させる(S206)。測定処理部131は、測定用仮想オブジェクトパラメータの更新処理の後、ステップS202に戻って次の操作検出まで待機する。 Further, when the collider of any of the measurement virtual objects MO is dragged by the measurement processing unit 131 with one touch (one finger) on the fitting processing screen, any of the measurement virtual object MOs. A process of changing the dimension (hereinafter referred to as "dimension change process") is performed (S205). The details of the dimension change processing will be described later. After the dimension change process in step S205, the measurement processing unit 131 updates the measurement virtual object parameter based on the changed dimension, and causes the field FP to display the updated measurement virtual object parameter (S206). After the measurement virtual object parameter update process, the measurement processing unit 131 returns to step S202 and waits until the next operation detection.

さらにまた、測定処理部131は、フィッティング処理画面において、ボタンBFEが押下されると、現在の被測定物TOに対するフィッティング処理を終了し、当該被測定物TOに関するフィッティング処理の結果を含む情報(以下、「被測定物情報」と呼ぶ)を登録(保持)して(S207)、当該被測定物TOに関する一連の処理を終了する。 Furthermore, when the button BFE is pressed on the fitting processing screen, the measurement processing unit 131 ends the fitting process for the current object TO to be measured, and provides information including the result of the fitting process for the object TO to be measured (hereinafter,). , Called "measurement object information") is registered (retained) (S207), and a series of processes relating to the measurement object TO is completed.

測定処理部131は、フィッティング処理画面において、以上のような操作をユーザから繰り返す受け付けることで、フィッティング処理を行う。 The measurement processing unit 131 performs the fitting process by repeatedly receiving the above operations from the user on the fitting process screen.

次に、位置移動処理の詳細について説明する。 Next, the details of the position movement process will be described.

図11は、測定処理部131が、フィッティング処理画面において位置移動処理が行われる際の画面遷移の例について示した図である。 FIG. 11 is a diagram showing an example of screen transition when the measurement processing unit 131 performs the position movement processing on the fitting processing screen.

図11(a)は位置移動処理の前のフィッティング処理画面の状態について示しており、図11(b)はユーザの手UHの操作に応じて位置移動処理を行った後の状態について示している。 FIG. 11A shows the state of the fitting processing screen before the position movement processing, and FIG. 11B shows the state after the position movement processing is performed according to the operation of the user's hand UH. ..

図11に示すように、フィッティング処理画面において、2点のタッチ(2本指)でのドラッグ操作が発生した場合、測定処理部131は、測定用仮想オブジェクトMOの位置(例えば、測定用仮想オブジェクトMOの中心位置)を、当該ドラッグ操作の方向(指を滑られた方向)に、当該ドラッグ操作の距離(指を滑らせた距離)に応じた分移動させる処理を行う。2点タッチの場合、測定処理部131は、2点の中間点の位置の移動に応じて、測定用仮想オブジェクトMOの位置移動処理を行う。 As shown in FIG. 11, when a drag operation with two touches (two fingers) occurs on the fitting processing screen, the measurement processing unit 131 positions the measurement virtual object MO (for example, the measurement virtual object). The process of moving the MO center position) in the direction of the drag operation (the direction in which the finger is slid) according to the distance of the drag operation (the distance in which the finger is slid) is performed. In the case of the two-point touch, the measurement processing unit 131 performs the position movement processing of the measurement virtual object MO according to the movement of the position of the intermediate point between the two points.

次に、回転処理の詳細について説明する。 Next, the details of the rotation process will be described.

図12は、測定処理部131が、フィッティング処理画面において回転処理が行われる際の画面遷移の例について示した図である。 FIG. 12 is a diagram showing an example of screen transition when the measurement processing unit 131 performs rotation processing on the fitting processing screen.

図12(a)は回転処理の前のフィッティング処理画面の状態について示しており、図12(b)はユーザの手UHの操作に応じて回転処理を行った後の状態について示している。 FIG. 12A shows the state of the fitting processing screen before the rotation processing, and FIG. 12B shows the state after the rotation processing is performed according to the operation of the user's hand UH.

図12に示すように、フィッティング処理画面において、回転ボタンBL、BRのいずれかが押下された場合、測定処理部131は、測定用仮想オブジェクトMOを床面F上で中心点として押下された回転ボタンの方向に回転させる処理を行う。測定処理部131は、左回転ボタンBLが押下された場合は測定用仮想オブジェクトMOを左方向(時計回り)に回転させ、右回転ボタンBRが押下された場合は測定用仮想オブジェクトMOを右方向(半時計回り)に回転させる。このとき、測定処理部131は、回転ボタンがタッチされる度に一定の角度だけ測定用仮想オブジェクトMOを回転させるようにしてもよいし、回転ボタンが継続してタッチされた時間に応じた分の角度、測定用仮想オブジェクトMOを回転させるようにしてもよい。 As shown in FIG. 12, when either the rotation button BL or BR is pressed on the fitting processing screen, the measurement processing unit 131 rotates the measurement virtual object MO as a center point on the floor surface F. Performs the process of rotating in the direction of the button. The measurement processing unit 131 rotates the measurement virtual object MO to the left (clockwise) when the left rotation button BL is pressed, and rotates the measurement virtual object MO to the right when the right rotation button BR is pressed. Rotate (counterclockwise). At this time, the measurement processing unit 131 may rotate the measurement virtual object MO by a certain angle each time the rotation button is touched, or the amount corresponding to the time when the rotation button is continuously touched. The angle of, and the virtual object MO for measurement may be rotated.

次に、寸法変更処理の詳細について説明する。 Next, the details of the dimension change processing will be described.

以下ではドラッグ操作されているコライダーを「操作コライダー」と呼び、操作コライダーに対応する辺を「操作辺」とも呼ぶものとする。また、以下では、操作コライダーが配置されてる面から見て、操作辺を挟んで隣接する面を「操作面」と呼ぶものとする。操作面は、操作コライダーの操作により寸法変更される際に移動する面となる。 In the following, the collider being dragged is referred to as an "operation collider", and the side corresponding to the operation collider is also referred to as an "operation side". Further, in the following, when viewed from the surface on which the operation collider is arranged, the surface adjacent to the operation side across the operation side is referred to as an "operation surface". The operation surface is a surface that moves when the dimensions are changed by the operation of the operation collider.

フィッティング処理画面において、測定用仮想オブジェクトMOのいずれかのコライダーで、1点のタッチ(1本指)によるドラッグ操作が発生した場合(タッチされた位置からレイを飛ばしていずれかのコライダーで衝突が発生した場合)、測定処理部131は、操作された操作コライダーが配置された面上で、操作コライダーに対応する辺と直交する方向(操作面と直交する方向)の寸法について、当該ドラッグ操作の方向(指を滑られた方向)に、当該ドラッグ操作の距離(指を滑らせた距離)に応じた分寸法を変更させる処理を行う。言い換えると、測定処理部131は、操作コライダーに対応する操作辺を、当該操作面と直交する方向(法線方向又は法線方向と逆の方向)に移動させる処理を行うことになる。 On the fitting process screen, when a drag operation by touching one point (one finger) occurs with any collider of the virtual object MO for measurement (a ray is skipped from the touched position and any collider (When a collision occurs), the measurement processing unit 131 determines the dimensions in the direction orthogonal to the side corresponding to the operation collider (direction orthogonal to the operation surface) on the surface on which the operated operation collider is arranged. A process is performed in which the dimension is changed in the direction of the drag operation (direction in which the finger is slid) according to the distance of the drag operation (distance in which the finger is slid). In other words, the measurement processing unit 131 performs a process of moving the operation side corresponding to the operation collider in a direction orthogonal to the operation surface (normal direction or direction opposite to the normal direction).

次に、寸法変更処理の詳細について説明する。 Next, the details of the dimension change processing will be described.

図13、図14、図15は、測定処理部131が、フィッティング処理画面において寸法変更処理が行われる際の画面遷移の例について示した図である。 13, FIG. 14, and FIG. 15 are views showing an example of screen transition when the measurement processing unit 131 performs the dimension change processing on the fitting processing screen.

図13、図14、図15は、それぞれ、測定用仮想オブジェクトMOについて、幅方向の寸法LW、高さ方向の寸法LH、奥行方向の寸法LDについて寸法変更処理が行われた場合の画面遷移について示している。 13, FIG. 14, and FIG. 15 show screen transitions when dimension change processing is performed for the measurement virtual object MO with respect to the dimension LW in the width direction, the dimension LH in the height direction, and the dimension LD in the depth direction, respectively. Shown.

そして、図13(a)、図14(a)、図15(a)はそれぞれ寸法変更処理の前のフィッティング処理画面の状態について示しており、図13(b)、図14(b)、図15(b)はそれぞれユーザの手UHの操作に応じて寸法変更処理を行った後の状態について示している。 13 (a), 14 (a), and 15 (a) show the state of the fitting processing screen before the dimension change processing, respectively, and FIGS. 13 (b), 14 (b), and FIG. Reference numeral 15 (b) shows a state after the dimension change processing is performed according to the operation of the user's hand UH.

まず、図13を用いて、幅方向の寸法LWを変更する際の寸法変更処理について説明する。図13では、面FF上で辺S_FRに対応するコライダーC_FRがドラッグ操作された場合における寸法変更処理について示している。 First, the dimension change process when changing the dimension LW in the width direction will be described with reference to FIG. FIG. 13 shows a dimension change process when the collider C_FR corresponding to the side S_FR is dragged on the surface FF.

図13(a)では、手前側に面FFが正対するカメラ視点で、コライダーC_FRがドラッグ操作されている。 In FIG. 13A, the collider C_FR is dragged from the camera viewpoint where the surface FF faces the front side.

操作コライダーがコライダーC_FRの場合、コライダーC_FRが形成された正面FF上で、コライダーC_FRが対応する辺S_FRと直交する方向は幅方向となるため、コライダーC_FRは幅LHの寸法変更を受け付ける操作コライダーとして機能することになる。 When the operation collider is the collider C_FR, the direction orthogonal to the side S_FR corresponding to the collider C_FR is the width direction on the front FF on which the collider C_FR is formed. It will function as an operation collider that accepts.

コライダーC_FRが、操作辺S_FRを基準として、測定用仮想オブジェクトMOの中心位置(面FFの中心位置)から遠ざかる方向(図13(a)では+LW方向と図示)にドラッグ操作された場合、測定処理部131は、+LW方向に、当該ドラッグ操作の距離(+LW方向に指を滑らせた距離)に応じた分だけ測定用仮想オブジェクトMOの幅方向の寸法LWを増加させる寸法変更処理を行う。このとき、正面FF上で操作辺S_FRと対向する辺S_FLの位置は固定したままとする。 When the collider C_FR is dragged in a direction away from the center position (center position of the surface FF) of the virtual object MO for measurement (shown as + LW direction in FIG. 13A) with reference to the operation side S_FR, the measurement is performed. The processing unit 131 performs a dimension change process in which the dimension LW in the width direction of the measurement virtual object MO is increased by the distance corresponding to the drag operation distance (distance in which the finger is slid in the + LW direction) in the + LW direction. At this time, the position of the side S_FL facing the operation side S_FR on the front FF remains fixed.

コライダーC_FRが、操作辺S_FRを基準として、測定用仮想オブジェクトMOの中心位置(面FFの中心位置)に近づく方向(図13(a)では−LW方向と図示)にドラッグ操作された場合、測定処理部131は、−LW方向に、当該ドラッグ操作の距離(−LW方向に指を滑らせた距離)に応じた分だけ測定用仮想オブジェクトMOの幅方向の寸法LWを減少させる寸法変更処理を行う。このときも、正面FF上で操作辺S_FRと対向する辺S_FLの位置は固定したままとする。 When the collider C_FR is dragged in a direction approaching the center position (center position of the surface FF) of the virtual object MO for measurement (shown as -LW direction in FIG. 13A) with reference to the operation side S_FR, The measurement processing unit 131 reduces the dimension LW in the width direction of the virtual object MO for measurement by the distance corresponding to the drag operation distance (distance in which the finger is slid in the −LW direction) in the −LW direction. I do. Also at this time, the position of the side S_FL facing the operation side S_FR on the front FF remains fixed.

言い換えると、この場合、コライダーC_FRは、測定用仮想オブジェクトMOの幅方向の寸法LWを変動させるスライダーとして機能しているともいえる。 In other words, in this case, it can be said that the collider C_FR functions as a slider that fluctuates the dimension LW in the width direction of the virtual object MO for measurement.

そして、ここでは、図13(b)に示すように、コライダーC_FRが、−LW方向に被測定物画像GTの右端の位置までドラッグ操作され、測定用仮想オブジェクトMOの幅方向の寸法LWが被測定物TO(被測定物画像GT)と一致した状態となったものとする。 Then, here, as shown in FIG. 13B, the collider C_FR is dragged in the −LW direction to the position at the right end of the image GT to be measured, and the dimension LW in the width direction of the virtual object MO for measurement is increased. It is assumed that the test object TO (measurement object image GT) is in the same state.

次に、図14を用いて、高さ方向の寸法LHを変更する際の寸法変更処理について説明する。図14では、面FF上で、辺S_UFに対応するコライダーC_UFがドラッグ操作された場合における寸法変更処理について示している。 Next, the dimension change process when changing the dimension LH in the height direction will be described with reference to FIG. FIG. 14 shows a dimension change process when the collider C_UF corresponding to the side S_UF is dragged on the surface FF.

操作コライダーがコライダーC_UFの場合、コライダーC_UFが形成された正面FF上で、コライダーC_UFが対応する辺S_UFと直交する方向は高さとなるため、コライダーC_UFは高さLHの寸法変更を受け付けるコライダーとして機能することになる。 When the operation collider is the collider C_UF, the collider C_UF has a height LH in the direction orthogonal to the corresponding side S_UF on the front FF on which the collider C_UF is formed. Will function as a collider that accepts.

コライダーC_UFが、操作辺S_UFを基準として、測定用仮想オブジェクトMOの中心位置(面FFの中心位置)から遠ざかる方向(図14(a)では+LH方向と図示)にドラッグ操作された場合、測定処理部131は、+LH方向に、当該ドラッグ操作の距離(+LH方向に指を滑らせた距離)に応じた分だけ測定用仮想オブジェクトMOの高さ方向の寸法LHを増加させる寸法変更処理を行う。 When the collider C_UF is dragged in a direction away from the center position (center position of the surface FF) of the virtual object MO for measurement (shown as + LH direction in FIG. 14A) with reference to the operation side S_UF, the measurement is performed. The processing unit 131 performs a dimension change process in which the dimension LH in the height direction of the virtual object MO for measurement is increased by the distance corresponding to the drag operation distance (distance in which the finger is slid in the + LH direction) in the + LH direction. ..

そして、ここでは、図14(b)に示すように、コライダーC_UFが、−LH方向に被測定物画像GTの上端の位置までドラッグ操作され、測定用仮想オブジェクトMOの高さ方向の寸法LHが被測定物TO(被測定物画像GT)と一致した状態となったものとする。 Then, here, as shown in FIG. 14B, the collider C_UF is dragged in the −LH direction to the position of the upper end of the image GT to be measured, and the dimension LH in the height direction of the virtual object MO for measurement is operated. Is in agreement with the object to be measured TO (image GT to be measured).

次に、図15を用いて、奥行方向の寸法LDを変更する際の寸法変更処理について説明する。図15では、上面FU上で、辺S_UBに対応するコライダーC_UBがドラッグ操作された場合における寸法変更処理について示している。 Next, the dimension change process when changing the dimension LD in the depth direction will be described with reference to FIG. FIG. 15 shows a dimension change process when the collider C_UB corresponding to the side S_UB is dragged on the upper surface FU.

操作コライダーがコライダーC_UBの場合、コライダーC_UBが形成された上面FU上で、コライダーC_UBが対応する辺S_UFと直交する方向は奥行となるため、コライダーC_UBは奥行LDの寸法変更を受け付けるコライダーとして機能することになる。 When the operation collider is collider C_UB, the direction orthogonal to the side S_UF corresponding to the collider C_UB is the depth on the upper surface FU on which the collider C_UB is formed, so the collider C_UB changes the dimension of the depth LD. It will function as a collider to accept.

コライダーC_UBが、操作辺S_UBを基準として、測定用仮想オブジェクトMOの中心位置(面FUの中心位置)から遠ざかる方向(図15(a)では+LD方向と図示)にドラッグ操作された場合、測定処理部131は、+LD方向に、当該ドラッグ操作の距離(+LD方向に指を滑らせた距離)に応じた分だけ測定用仮想オブジェクトMOの奥行方向の寸法LDを増加させる寸法変更処理を行う。このとき、上面FU上で操作辺S_UBと対向する辺S_UFの位置は固定したままとする。 When the collider C_UB is dragged in the direction away from the center position (center position of the surface FU) of the virtual object MO for measurement (shown as + LD direction in FIG. 15A) with reference to the operation side S_UB, the measurement is performed. The processing unit 131 performs a dimension change process in which the dimension LD in the depth direction of the measurement virtual object MO is increased by the distance corresponding to the drag operation distance (distance in which the finger is slid in the + LD direction) in the + LD direction. At this time, the position of the side S_UF facing the operation side S_UB on the upper surface FU remains fixed.

また、コライダーC_UBが、操作辺S_UBを基準として、測定用仮想オブジェクトMOの中心位置(面FUの中心位置)に近づく方向(図15(a)では−LD方向と図示)にドラッグ操作された場合、測定処理部131は、−LD方向に、当該ドラッグ操作の距離(−LD方向に指を滑らせた距離)に応じた分だけ測定用仮想オブジェクトMOの奥行方向の寸法LDを減少させる寸法変更処理を行う。なお、このときも、上面FU上で操作辺S_UBと対向する辺S_UFの位置は固定したままとする。 Further, the collider C_UB was dragged in a direction approaching the center position (center position of the surface FU) of the virtual object MO for measurement (shown as the -LD direction in FIG. 15A) with the operation side S_UB as a reference. In this case, the measurement processing unit 131 reduces the dimension LD in the depth direction of the virtual object MO for measurement by the distance corresponding to the drag operation distance (distance in which the finger is slid in the −LD direction) in the −LD direction. Perform change processing. Also at this time, the position of the side S_UF facing the operation side S_UB on the upper surface FU remains fixed.

そして、ここでは、図15(b)に示すように、コライダーC_UBが、−LD方向に被測定物画像GTの上端の位置までドラッグ操作され、測定用仮想オブジェクトMOの奥行方向の寸法LDが被測定物TO(被測定物画像GT)と一致した状態となったものとする。すなわち、図15(b)の状態において、フィールドFPに表示された測定用仮想オブジェクトパラメータは、現実空間の被測定物TOと一致していることを示すことになる。 Then, here, as shown in FIG. 15B, the collider C_UB is dragged in the −LD direction to the position of the upper end of the image GT to be measured, and the dimension LD in the depth direction of the virtual object MO for measurement is changed. It is assumed that the test object TO (measurement object image GT) is in the same state. That is, in the state of FIG. 15B, it is shown that the virtual object parameter for measurement displayed in the field FP matches the object TO to be measured in the real space.

次に、寸法変更処理の際の測定用仮想オブジェクトMOの変形処理の詳細について説明する。 Next, the details of the deformation processing of the virtual object MO for measurement at the time of the dimension change processing will be described.

上述の通り、測定処理部131は、測定用仮想オブジェクトMO上に配置されたいずれかのコライダーで受け付けたドラッグ操作の距離(指を滑らせた距離)に応じて、測定用仮想オブジェクトMOの幅、高さ、又は奥行のいずれかについて増減させる。また、上述の通り、測定用仮想オブジェクトMOについて寸法変更処理を受け付ける際には、図13〜図15に示す通り、操作コライダーに対応する操作辺だけを移動させ、操作辺と対向する辺については固定したままとする方が、操作性が高い(よりユーザの意図に合致した寸法変更を受け付けることができる)。例えば、図15に示すように、コライダーC_UBを操作して、測定用仮想オブジェクトMOの奥行方向の寸法を変更する際には、辺S_UBに対向する辺S_UF(正面FF)の位置を固定したままとし、コライダーC_UBに対応する辺S_UB(背面FB)のみを移動させることになる。 As described above, the measurement processing unit 131 determines the measurement virtual object MO according to the drag operation distance (finger-sliding distance) received by any of the colliders placed on the measurement virtual object MO. Increase or decrease either width, height, or depth. Further, as described above, when accepting the dimension change processing for the measurement virtual object MO, as shown in FIGS. 13 to 15, only the operation side corresponding to the operation collider is moved, and the side facing the operation side is It is easier to operate if the is fixed (it can accept dimensional changes that more closely match the user's intention). For example, as shown in FIG. 15, when the collider C_UB is operated to change the dimension of the measurement virtual object MO in the depth direction, the position of the side S_UF (front FF) facing the side S_UB is fixed. Leaving it as it is, only the side S_UB (rear FB) corresponding to the collider C_UB will be moved.

しかしながら、3Dオブジェクトの変形を受け付けるGUIにおいて、一辺に対して移動のドラッグ操作を受け付けた場合、3Dオブジェクトの中心位置を固定したままとする処理が一般的である。その場合、3Dオブジェクトの中心位置を固定したまま一辺に対して移動の操作を受け付けると、移動の操作を受け付けた辺だけでなく、その辺に対向する辺についても同じ距離だけ移動することになる。例えば、ARkitやUnityにおいて3Dオブジェクトを処理する際に標準的に用いられるライブラリ(以下、「3Dオブジェクト処理ライブラリ」と呼ぶ)を用いてフィッティングのGUIを構成する場合も同様に、3Dオブジェクトの一辺に対してドラッグ操作を受け付けた場合、基本的には当該3Dオブジェクトの中心位置を固定したままとする処理が行われる。この実施形態の測定処理部131においても、同様の処理を行う3Dオブジェクト処理ライブラリが適用されているものとする。 However, in the GUI that accepts the deformation of the 3D object, when the drag operation of the movement is accepted with respect to one side, the process of keeping the center position of the 3D object fixed is common. In that case, if the movement operation is accepted for one side while the center position of the 3D object is fixed, not only the side for which the movement operation is accepted but also the side facing the side will be moved by the same distance. .. For example, when a fitting GUI is configured using a library (hereinafter referred to as "3D object processing library") that is standardly used when processing a 3D object in ARkit or Unity, the same applies to one side of the 3D object. On the other hand, when the drag operation is accepted, basically, the process of keeping the center position of the 3D object fixed is performed. It is assumed that the measurement processing unit 131 of this embodiment also applies the 3D object processing library that performs the same processing.

そのため、この実施形態の測定処理部131は、測定用仮想オブジェクトMOの一辺に対して寸法変更の操作(ドラッグ操作)を受け付けた場合、測定用仮想オブジェクトMOの中心位置を、当該寸法変更に応じた位置に移動させる処理を行うものとする。具体的には、測定処理部131は、測定用仮想オブジェクトMOの一辺に対して寸法変更の操作(ドラッグ操作)を受け付けた場合、測定用仮想オブジェクトMOの中心位置を、操作コライダーC_UBに対応する第1の辺が移動する方向と同じ方向(寸法変更する方向)に、第1の辺が移動する距離の半分の距離(2分の1の距離)だけ移動させる処理を行うものとする。 Therefore, when the measurement processing unit 131 of this embodiment receives a dimension change operation (drag operation) for one side of the measurement virtual object MO, the measurement processing unit 131 changes the center position of the measurement virtual object MO according to the dimension change. It shall be processed to move to the position. Specifically, when the measurement processing unit 131 accepts a dimension change operation (drag operation) for one side of the measurement virtual object MO, the center position of the measurement virtual object MO corresponds to the operation collider C_UB. It is assumed that the process of moving the first side in the same direction as the moving direction (direction of changing the dimension) by half the distance (half the distance) of the moving distance of the first side is performed.

図16、図17は、それぞれ測定用仮想オブジェクトMOの上面FUのコライダーC_UBがドラッグ操作され、測定用仮想オブジェクトMOの奥行方向の寸法が変更(減少)される例について示した図である。図16は寸法変更の際に中心位置を固定とした場合の例を示しており、図17は、測定用仮想オブジェクトMOの寸法変更の際に寸法変更に応じて中心位置を移動させる場合の例について示している。 16 and 17 are views showing an example in which the collider C_UB of the upper surface FU of the virtual object MO for measurement is dragged to change (decrease) the dimension of the virtual object MO for measurement in the depth direction. FIG. 16 shows an example in which the center position is fixed when the dimension is changed, and FIG. 17 shows an example in which the center position is moved according to the dimension change when the dimension of the virtual object MO for measurement is changed. Is shown.

図16、図17は、それぞれ測定用仮想オブジェクトMOを上側(上面FU)から見た状態の図(平面図)となっている。図16(a)、図17(a)はそれぞれ測定用仮想オブジェクトMOがドラッグ操作される前の状態について示しており、図16(b)、図17(b)はそれぞれ測定用仮想オブジェクトMOが、内側の方向(奥行方向の寸法が減少する方向)にドラッグ操作された後の状態について示している。図16、図17の例では、測定用仮想オブジェクトMOについてP201からP202の位置までドラッグ操作された例について示している。図16では、寸法変更前の測定用仮想オブジェクトMOの奥行方向の寸法をLD1、ドラッグ操作された距離(P201からP202までの距離)をLD2としている。 16 and 17 are views (plan views) of the measurement virtual object MO as viewed from above (upper surface FU), respectively. 16 (a) and 17 (a) show the state before the measurement virtual object MO is dragged, and FIGS. 16 (b) and 17 (b) show the measurement virtual object MO, respectively. , The state after being dragged in the inner direction (the direction in which the dimension in the depth direction decreases) is shown. In the examples of FIGS. 16 and 17, an example in which the measurement virtual object MO is dragged from the positions P201 to P202 is shown. In FIG. 16, the dimension in the depth direction of the measurement virtual object MO before the dimension change is LD1, and the drag-operated distance (distance from P201 to P202) is LD2.

また、図16、図17では、ドラッグ操作前の測定用仮想オブジェクトMOの中心位置をP101としている。さらに、図17の例では、ドラッグ操作に伴って、測定用仮想オブジェクトMOの中心位置がP102の位置まで移動している。 Further, in FIGS. 16 and 17, the center position of the measurement virtual object MO before the drag operation is set to P101. Further, in the example of FIG. 17, the center position of the measurement virtual object MO is moved to the position of P102 with the drag operation.

図16の例では、ドラッグ操作の前後で、測定用仮想オブジェクトMOの中心位置は固定されているので、操作されたコライダーC_UBに対応する辺S_UBだけでなく、対向する辺S_UFについてもドラッグ操作された距離LD2の分だけ内側に移動した状態となっている。 In the example of FIG. 16, since the center position of the measurement virtual object MO is fixed before and after the drag operation, the drag operation is performed not only on the side S_UB corresponding to the operated collider C_UB but also on the opposite side S_UF. It is in a state of being moved inward by the distance LD2.

一方、図17の例では、ドラッグ操作されたコライダーC_UBに対応する辺S_UBが内側に距離LD2移動すると、測定用仮想オブジェクトMOの中心位置がその距離LD2の半分の距離(LD2/2)だけ同じ方向に移動している。図17(b)に示すように、ドラッグ操作(寸法変更)後の測定用仮想オブジェクトMOの中心位置はP102となっている。これにより、図17の例では、一般的な3Dオブジェクト処理ライブラリ(一辺に対して移動のドラッグ操作を受け付けた場合、3Dオブジェクトの中心位置を固定したままとする処理を行うライブラリ)を用いて処理された場合でも、辺S_UB(ドラッグ操作されたコライダーC_UBに対応する辺)に対向する辺S_UFの位置は固定されたままとなる。 On the other hand, in the example of FIG. 17, when the side S_UB corresponding to the dragged collider C_UB moves inward by a distance LD2, the center position of the virtual object MO for measurement is only half the distance (LD2 / 2) of that distance LD2. It is moving in the same direction. As shown in FIG. 17B, the center position of the measurement virtual object MO after the drag operation (dimension change) is P102. As a result, in the example of FIG. 17, processing is performed using a general 3D object processing library (a library that performs processing that keeps the center position of the 3D object fixed when a drag operation for moving to one side is accepted). Even if this is done, the position of the side S_UF facing the side S_UB (the side corresponding to the dragged collider C_UB) remains fixed.

以上のように、測定処理部131は図9のフローチャートに従って、ユーザの操作に応じたフィッティング処理(測定用仮想オブジェクトパラメータの更新処理を含む)を繰り返すことで、ユーザに対して被測定物TOの形状に係る測定値を提示することが可能となる。 As described above, the measurement processing unit 131 repeats the fitting process (including the update process of the virtual object parameter for measurement) according to the user's operation according to the flowchart of FIG. It is possible to present the measured value related to the shape.

次に、測定処理部131により、被測定物TOについてフィッティング処理が完了し、当該被測定物TOに関する被測定物情報を登録する処理(上述のステップS207の処理)の詳細について説明する。 Next, the details of the process of completing the fitting process for the object to be measured TO by the measurement processing unit 131 and registering the information to be measured for the object to be measured TO (the process of step S207 described above) will be described.

フィッティング処理画面で、フィッティング処理の完了を受け付けるためのボタンBFEが押下されると、測定処理部131は、現在フィッティング処理中の被測定物TOについてフィッティングが完了し、測定用仮想オブジェクトMOの形状が被測定物TOと一致/対応していると見なし、現在の測定用仮想オブジェクトMOの形状(寸法)に関する情報を被測定物TOの形状に関する情報(以下、「形状情報」として取得する。 When the button BFE for accepting the completion of the fitting process is pressed on the fitting process screen, the measurement processing unit 131 completes the fitting of the object TO to be measured that is currently being fitted, and the shape of the virtual object MO for measurement is changed. It is considered that it matches / corresponds to the object TO to be measured, and information on the shape (dimensions) of the current virtual object MO for measurement is acquired as information on the shape of the object TO to be measured (hereinafter, "shape information").

ここでは、測定処理部131は、少なくとも測定用仮想オブジェクトMOの形状情報及び、当該被測定物TOの属性に関する情報(以下、「属性情報」と呼ぶ)を取得する。 Here, the measurement processing unit 131 acquires at least the shape information of the virtual object MO for measurement and the information regarding the attributes of the object TO to be measured (hereinafter, referred to as “attribute information”).

当該被測定物TOの属性に関する情報は、撮像された画像から推定(例えば、AI等を用いた画像認識処理により推定)して取得するようにしてもよいし、ユーザからの操作入力により取得するようにしてもよい。 Information on the attributes of the object to be measured TO may be estimated from the captured image (for example, estimated by image recognition processing using AI or the like) and acquired, or may be acquired by operation input from the user. You may do so.

例えば、測定処理部131は、タッチパネルディスプレイ11から、当該被測定物TOの属性情報の入力を受けつけるための操作画面(以下、「属性情報入力画面」と呼ぶ)を表示させて、ユーザから属性情報の入力を受け付けるようにしてもよい。 For example, the measurement processing unit 131 displays an operation screen (hereinafter, referred to as “attribute information input screen”) for receiving the input of the attribute information of the object to be measured TO from the touch panel display 11, and the attribute information from the user. You may accept the input of.

図18は、属性情報入力画面の構成例について示した図である。 FIG. 18 is a diagram showing a configuration example of the attribute information input screen.

図18では、ユーザから属性情報の選択を受け付けるためのボタンB101、B102、B103、B104、・・・が配置されている。属性情報入力画面に配置されたボタンは、それぞれ対応する属性情報の値に対応するボタンとなっている。例えば、図18では、ボタンB101は「段ボール箱」、ボタンB102は「冷蔵庫」、ボタンB103は「テレビ」、ボタンB104は「ソファ」に対応する値の入力を受け付けるボタンとして機能することを示している。例えば、図18に示す属性情報入力画面で、ボタンB101が押下されると、当該被測定物TOの属性情報は「段ボール箱」であることの入力を受け付けることになる。 In FIG. 18, buttons B101, B102, B103, B104, ... For receiving the selection of attribute information from the user are arranged. The buttons arranged on the attribute information input screen are buttons corresponding to the corresponding attribute information values. For example, FIG. 18 shows that button B101 functions as a "cardboard box", button B102 functions as a "refrigerator", button B103 functions as a "television", and button B104 functions as a button that accepts input of values corresponding to "sofa". There is. For example, when the button B101 is pressed on the attribute information input screen shown in FIG. 18, the input that the attribute information of the object to be measured TO is a "cardboard box" is accepted.

以上のように、測定処理部131は、当該被測定物TOの形状情報及び属性情報を取得する。ここでは、測定処理部131は、当該被測定物TOの形状情報及び属性情報を含む情報を被測定物情報として取得する。 As described above, the measurement processing unit 131 acquires the shape information and the attribute information of the object to be measured TO. Here, the measurement processing unit 131 acquires information including shape information and attribute information of the object to be measured TO as the information to be measured.

以上のように、この実施形態の測定処理部131は、1又は複数の被測定物TOについて被測定物情報を取得することができる。 As described above, the measurement processing unit 131 of this embodiment can acquire the measurement object information for one or a plurality of measurement object TOs.

ここでは、測定処理部131は、複数の被測定物TO(例えば、1つのコンテナに積み込む予定の複数の荷物のセット)について連続してフィッティング処理を行うことが可能であるものとする。 Here, it is assumed that the measurement processing unit 131 can continuously perform fitting processing on a plurality of objects to be measured TO (for example, a set of a plurality of packages to be loaded in one container).

例えば、測定処理部131は、1つの被測定物TOについてフィッティング処理及び被測定物情報の取得が完了すると、ユーザに次の被測定物TOのフィッティング処理に移行するか、全ての被測定物TOのフィッティング処理を完了するかの選択を受け付ける操作画面(以下、「選択画面」と呼ぶ)を表示して、ユーザから次の操作の選択を受け付けるようにしてもよい。 For example, when the measurement processing unit 131 completes the fitting process for one object TO to be measured and the acquisition of the information to be measured, the user shifts to the fitting process of the next TO to be measured, or all the objects to be measured TO An operation screen (hereinafter, referred to as a “selection screen”) for accepting the selection of whether to complete the fitting process may be displayed, and the user may accept the selection of the next operation.

図19は、選択画面の構成例について示した図である。 FIG. 19 is a diagram showing a configuration example of the selection screen.

図19に示す選択画面では、次の被測定物TOのフィッティングの処理への意向を受け付けるためのボタンB201と、全ての被測定物TOについてフィッティング処理が完了したことを受け付けるためのボタンB202が配置されているものとする。 On the selection screen shown in FIG. 19, a button B201 for accepting the intention to perform the fitting process of the next object TO to be measured and a button B202 for accepting the completion of the fitting process for all the objects TO to be measured are arranged. It is assumed that it has been done.

測定処理部131は、選択画面でボタンB201が押下された場合は、上述の図3のフローチャートのステップS102に戻って動作を再開し、次の被測定物TOのフィッティング処理に移行し、選択画面でB202が押下された場合には、フィッティング処理を行った1又は複数の被測定物TOを収納庫(例えば、荷物を運搬するためのコンテナ等)に収納する際の配置のシミュレーションを行う処理(以下、「収納庫配置シミュレーション処理」と呼ぶ)に移行する。 When the button B201 is pressed on the selection screen, the measurement processing unit 131 returns to step S102 of the flowchart of FIG. 3 described above to resume the operation, shifts to the fitting process of the next object to be measured TO, and selects the selection screen. When B202 is pressed in, a process of simulating the arrangement when storing one or more measured objects TO that have undergone fitting processing in a storage (for example, a container for transporting luggage) (for example, a container for carrying luggage). Hereinafter, it will be referred to as "storage arrangement simulation processing").

次に、測定処理部131による収納庫配置シミュレーション処理について説明する。 Next, the storage arrangement simulation process by the measurement processing unit 131 will be described.

測定処理部131は、コンテナ配置シミュレーション処理を開始すると、各被測定物TO(フィッティング処理により被測定物情報を取得した被測定物TO)を収納庫に収納する際のシミュレーションを行うための操作画面(以下、「収納庫配置シミュレーション画面」と呼ぶ)をタッチパネルディスプレイ11に表示させる。 When the measurement processing unit 131 starts the container arrangement simulation process, the operation screen for simulating each object TO to be measured (measured object TO whose information to be measured is acquired by fitting processing) is stored in the storage. (Hereinafter referred to as a “storage arrangement simulation screen”) is displayed on the touch panel display 11.

図20は、収納庫配置シミュレーション画面の構成例について示した図である。 FIG. 20 is a diagram showing a configuration example of a storage arrangement simulation screen.

図20に示す通り、収納庫配置シミュレーション画面では、4つの被測定物TOのそれぞれに対応する3DオブジェクトOB201〜OB204と、被測定物TOを収納する予定の収納庫に対応する3DオブジェクトOB201が配置されている。図20に示す収納庫配置シミュレーション画面では、各3Dオブジェクトを床面の上に載置し、斜め上の視点から見た状態をモデリングした画像となっている。 As shown in FIG. 20, on the storage arrangement simulation screen, the 3D objects OB201 to OB204 corresponding to each of the four measured objects TO and the 3D object OB201 corresponding to the storage room to store the measured object TO are arranged. Has been done. In the storage arrangement simulation screen shown in FIG. 20, each 3D object is placed on the floor surface, and the image is a model of a state viewed from an obliquely upper viewpoint.

この実施形態では、図示の都合上、収納庫の3DオブジェクトOB201は、各辺が点線で描かれ、各面は透明となっているが、収納庫の3DオブジェクトOB201を構成する辺や面の描画方法(描画パターン)は限定されないものである。例えば、収納庫の3DオブジェクトOB201の各面を半透明(透過;メッシュ)のパターンとするようにしてもよい。 In this embodiment, for convenience of illustration, each side of the 3D object OB201 of the storage is drawn with a dotted line and each side is transparent, but the sides and faces constituting the 3D object OB201 of the storage are drawn. The method (drawing pattern) is not limited. For example, each surface of the 3D object OB201 in the storage may have a translucent (transparent; mesh) pattern.

また、この実施形態では、4つの被測定物TOの属性情報がいずれも段ボール箱であるものとする。そして、図20に示す収納庫配置シミュレーション画面では、被測定物の3DオブジェクトOB201〜OB204では、属性情報に対応する画像(ここでは段ボール画像のテクスチャ)が表面に描画(レンダリング)されている。被測定物の3Dオブジェクトに描画するテクスチャの画像は、属性情報ごとに対応する画像を予め保持しておくようにしてもよいし、フィッティング処理等の際に撮影した画像を適用するようにしてもよい。 Further, in this embodiment, it is assumed that the attribute information of the four objects to be measured TO is a cardboard box. Then, in the storage arrangement simulation screen shown in FIG. 20, in the 3D objects OB201 to OB204 of the object to be measured, an image corresponding to the attribute information (here, the texture of the corrugated cardboard image) is drawn (rendered) on the surface. As the texture image to be drawn on the 3D object of the object to be measured, the corresponding image for each attribute information may be retained in advance, or the image taken during the fitting process or the like may be applied. good.

測定処理部131は、各被測定物TOの3Dオブジェクトについて、形状情報(フィッティング処理により取得した、幅、高さ及び奥行)に応じた形状をモデリングして画面上に描画(レンダリング)する。また、測定処理部131は、モデリングする収納庫の3Dオブジェクトの形状(例えば、幅、高さ及び奥行)の情報について、予め取得しておくようにしてもよいし、ユーザから入力を受け付けるようにしてもよい。 The measurement processing unit 131 models (renders) the shape of each 3D object of the object to be measured TO according to the shape information (width, height and depth acquired by the fitting process) on the screen. Further, the measurement processing unit 131 may acquire information on the shape (for example, width, height and depth) of the 3D object of the storage to be modeled in advance, or may accept input from the user. You may.

図20では、収納庫配置シミュレーション画面の初期状態を示している。図20では、それぞれの被測定物TOの3DオブジェクトOB201〜OB204は、収納庫の3DオブジェクトOB101の外側に配置されている。 FIG. 20 shows the initial state of the storage arrangement simulation screen. In FIG. 20, the 3D objects OB201 to OB204 of each object to be measured TO are arranged outside the 3D object OB101 of the storage.

図21、図22は、収納庫配置シミュレーション画面の遷移の例について示した図である。 21 and 22 are diagrams showing an example of transition of the storage arrangement simulation screen.

そして、収納庫配置シミュレーション画面では、ユーザからの操作(例えば、ドラッグ操作等)により、それぞれの被測定物TOの3DオブジェクトOB201〜OB204について移動を受け付けることが可能であり、図21に示すように収納庫の3Dオブジェクトの内側への移動が可能となっているものとする。 Then, on the storage arrangement simulation screen, it is possible to accept the movement of the 3D objects OB201 to OB204 of each object to be measured TO by an operation (for example, a drag operation) from the user, as shown in FIG. It is assumed that the 3D object in the storage can be moved inward.

また、収納庫配置シミュレーション画面では、図22に示すように視点(各3Dオブジェクトを見た場合の視点)の変更を受け付けることも可能であるものとする。 Further, as shown in FIG. 22, it is possible to accept the change of the viewpoint (viewpoint when each 3D object is viewed) on the storage arrangement simulation screen.

このとき、測定処理部131は、ユーザが収納庫の3DオブジェクトOB101の内側と外側の境界上にいずれかの被測定物TOの3Dオブジェクトを移動させようとした場合(ドラッグ操作(ドロップ)させようとした場合)、当該被測定物TOの3Dオブジェクトの位置を、収納庫の3DオブジェクトOB101の境界からはずれた位置(例えば、ドラッグ操作(ドロップ)前の位置)に移動させる処理を行うようにしてもよい。 At this time, the measurement processing unit 131 attempts to move (drag) the 3D object of any of the objects to be measured TO on the boundary between the inside and the outside of the 3D object OB101 in the storage. ), The position of the 3D object of the object to be measured TO is moved to a position deviated from the boundary of the 3D object OB101 of the storage (for example, the position before the drag operation (drop)). May be good.

図20〜図22に示すように、収納庫配置シミュレーション画面では、ユーザに対して、全ての被測定物TO(3DオブジェクトOB201〜OB204)について、収納庫(3DオブジェクトOB101)の内部に収まるか否かや、収納庫内における各被測定物TOのレイアウト等のシミュレーション環境を提供することができる。 As shown in FIGS. 20 to 22, in the storage storage arrangement simulation screen, whether or not all the objects to be measured TO (3D objects OB201 to OB204) fit inside the storage (3D object OB101) for the user. It is possible to provide a simulation environment such as the layout of each object TO to be measured in the storage.

以上のように、ユーザは、各被測定物TOについてフィッティング処理を行い、収納庫配置シミュレーション画面上で操作するだけで、容易に、必要な収納庫の数や収納庫内における被測定物TOのレイアウト等を把握することができる。 As described above, the user can easily perform the fitting process for each object to be measured TO and operate on the storage storage arrangement simulation screen to easily determine the required number of storages and the measurement object TO in the storage. You can grasp the layout and so on.

(A−3)第1の実施形態の効果
この実施形態によれば、以下のような効果を奏することができる。
(A-3) Effect of First Embodiment According to this embodiment, the following effects can be achieved.

この実施形態の測定装置10では、タッチパネルディスプレイ11に、カメラ12の撮像画像と共に測定用仮想オブジェクトMOを表示し、ユーザの操作に応じて測定用仮想オブジェクトMOの編集(フィッティング処理)を行うことで、ユーザに対して被測定物TOの形状に係る測定値を取得して提示することができる。 In the measuring device 10 of this embodiment, the virtual object MO for measurement is displayed on the touch panel display 11 together with the captured image of the camera 12, and the virtual object MO for measurement is edited (fitting process) according to the user's operation. , It is possible to acquire and present the measured value related to the shape of the object to be measured TO to the user.

これにより、測定装置10では、ユーザの目測によりフィッティングの操作を受け付けるため、メジャー等を用いた精密な測定を行うことはできないが、引越しや宅配の業務において荷物の大きさに基づいた費用の見積もり等を行う際には十分な精度を確保することができる。 As a result, since the measuring device 10 accepts the fitting operation by the user's visual measurement, it is not possible to perform precise measurement using a tape measure or the like, but the cost is estimated based on the size of the cargo in the moving or home delivery business. Sufficient accuracy can be ensured when performing the above.

また、測定装置10では、スマートホンにアプリケーションをインストールするだけであるため、メジャー等の器具を用いずに測定可能であり、利便性が高い。 Further, since the measuring device 10 only installs the application on the smartphone, it can measure without using an instrument such as a tape measure, which is highly convenient.

さらに、測定装置10では、測定用仮想オブジェクトMOを複数の視点からカメラ12で撮像可能であれば、サイズの大きい物(例えば、本棚や冷蔵庫等)であっても、長尺なメジャーを用いることなく容易に測定することが可能である。 Further, in the measuring device 10, if the virtual object MO for measurement can be imaged by the camera 12 from a plurality of viewpoints, even a large object (for example, a bookshelf, a refrigerator, etc.) should use a long tape measure. It is possible to measure easily without using.

(B)第2の実施形態
以下、本発明による測定装置、測定プログラム及び測定方法の第1の実施形態を、図面を参照しながら詳述する。
(B) Second Embodiment Hereinafter, the first embodiment of the measuring device, the measuring program, and the measuring method according to the present invention will be described in detail with reference to the drawings.

(B−1)第2の実施形態の構成及び動作
第2の実施形態の全体構成及び第2の実施形態の測定装置10の構成についても、上述の図1及び図2を用いて示すことができる。
(B-1) Configuration and operation of the second embodiment The overall configuration of the second embodiment and the configuration of the measuring device 10 of the second embodiment can also be shown with reference to FIGS. 1 and 2 described above. can.

以下では、第2の実施形態について第1の実施形態との差異点について説明する。 Hereinafter, the differences between the second embodiment and the first embodiment will be described.

第2の実施形態では、測定処理部131の処理の一部が追加されている点で、第1の実施形態と異なっている。 The second embodiment is different from the first embodiment in that a part of the processing of the measurement processing unit 131 is added.

具体的には、第2の実施形態では、フィッティング処理において、一部の処理を測定処理部131が自動的に処理(以下、「オートフィット処理」と呼ぶ)の機能(以下、「オートフィット機能」と呼ぶ)が追加されている点で異なっている。 Specifically, in the second embodiment, in the fitting process, the measurement processing unit 131 automatically processes a part of the process (hereinafter, referred to as “autofit process”) (hereinafter, “autofit function”). ”) Is added.

図23は、第2の実施形態におけるフィッティング処理画面の構成例について示している。 FIG. 23 shows a configuration example of the fitting processing screen in the second embodiment.

第2の実施形態のフィッティング処理画面では、オートフィット機能のオン/オフの切替を受け付けるためのボタンBAが追加されている点で第1の実施形態と異なっている。図23(a)では、フィッティング処理画面で、オートフィット機能がオフの状態(ボタンBA内が「off」の表示となった状態)を示しており、図23(b)では、フィッティング処理画面で、オートフィット機能がオンの状態(ボタンBA内が「on」の表示となった状態)を示している。 The fitting processing screen of the second embodiment is different from the first embodiment in that a button BA for accepting on / off switching of the autofit function is added. FIG. 23A shows a state in which the autofit function is off (a state in which “off” is displayed in the button BA) on the fitting processing screen, and FIG. 23B shows a state in which the fitting processing screen is displayed. , Indicates a state in which the autofit function is on (a state in which "on" is displayed in the button BA).

以下では、第2の実施形態の測定処理部131が行うフィッティング処理の例について図24のフローチャートを用いて説明する。 Hereinafter, an example of the fitting process performed by the measurement processing unit 131 of the second embodiment will be described with reference to the flowchart of FIG. 24.

図24は、第2の実施形態において、測定処理部131がフィッティング処理を行う際の処理の例について示したフローチャートである。 FIG. 24 is a flowchart showing an example of processing when the measurement processing unit 131 performs the fitting processing in the second embodiment.

図24では、第1の実施形態(図9)と同様の処理を行うステップには、同一のステップ番号(符号)を付している。 In FIG. 24, the same step numbers (reference numerals) are assigned to the steps for performing the same processing as in the first embodiment (FIG. 9).

第2の実施形態のフローチャートでは、オートフィット機能がオン状態の場合におけるオートフィット処理(ステップS208)が追加されている点で、第1の実施形態と異なっている。 The flowchart of the second embodiment is different from the first embodiment in that the autofit process (step S208) when the autofit function is on is added.

すなわち、図24のフローチャートでは、ステップS202の操作検出でオートフィット機能のオンの操作を検出(例えば、ボタンBAの押下によりオートフィット機能がオンとなった場合)した場合、オートフィット処理を開始し、ステップS208の処理が行われる。 That is, in the flowchart of FIG. 24, when the operation of turning on the autofit function is detected by the operation detection in step S202 (for example, when the autofit function is turned on by pressing the button BA), the autofit process is started. , Step S208 is performed.

なお、オートフィット機能のオンオフのトリガとなる要素は、上記のボタンに限定されないものであり、種々の方式を適用することができる。例えば、測定処理部131は、測定用仮想オブジェクトMOの一部が長押しされた場合にオートフィット機能のオンオフを受け付けるようにしてもよい。以下では、測定処理部131において、オートフィット機能がオンになっている状態を、「オートフィットオン状態」と呼び、オートフィット機能がオフになっている状態を「オートフィットオフ状態」と呼ぶものとする。 The element that triggers the on / off of the autofit function is not limited to the above buttons, and various methods can be applied. For example, the measurement processing unit 131 may accept on / off of the autofit function when a part of the measurement virtual object MO is pressed and held for a long time. In the following, in the measurement processing unit 131, the state in which the autofit function is turned on is referred to as an "autofit on state", and the state in which the autofit function is turned off is referred to as an "autofit off state". And.

なお、第2の実施形態の測定処理部131では、上述の通り、オートフィット機能のオンオフが可能であるため、測定用仮想オブジェクトMOの一部の面のフィッティング処理についてのみオートフィット処理を適用し、その他の面のフィッティング処理について手動による処理を適用するようにしてもよい。 Since the measurement processing unit 131 of the second embodiment can turn on / off the autofit function as described above, the autofit processing is applied only to the fitting processing of a part of the surface of the virtual object MO for measurement. , Manual processing may be applied to the fitting processing of other surfaces.

測定処理部131によるオートフィット処理の手法については複数挙げられる。以下では、測定処理部131によるオートフィット処理について3つの事例を挙げる。 A plurality of methods of autofit processing by the measurement processing unit 131 can be mentioned. In the following, three examples of autofit processing by the measurement processing unit 131 will be given.

[第1のオートフィット処理]
まず、測定処理部131による第1のオートフィット処理について、図25のフローチャートを用いて説明する。
[First autofit processing]
First, the first autofit processing by the measurement processing unit 131 will be described with reference to the flowchart of FIG.

測定処理部131は、オートフィットオン状態となると、平面(被測定物TOの平面;すなわち床面F以外の平面)上の代表点の探索を試みる処理を行い(S301)、代表点の探索が成功した場合は後述するステップS301から動作し探索が失敗した場合は最初にもどってループし、再度代表点の探索を試みる。具体的には、測定処理部131は、タッチパネルディスプレイ11の画面中央からカメラの光軸方向にレイを飛ばして、平面(ARシステムにより検出される被測定物TOの平面;すなわち床面以外の平面)にヒットした場合、当該平面の中心位置を代表点として取得するものとする。 When the autofit-on state is set, the measurement processing unit 131 performs a process of trying to search for a representative point on a plane (a plane of the object TO to be measured; that is, a plane other than the floor surface F) (S301), and the search for the representative point is performed. If it succeeds, it operates from step S301 described later, and if the search fails, it returns to the beginning and loops, and tries to search for the representative point again. Specifically, the measurement processing unit 131 shoots a ray from the center of the screen of the touch panel display 11 in the optical axis direction of the camera, and a plane (a plane of the object TO to be measured detected by the AR system; that is, a plane other than the floor surface). ) Is hit, the center position of the plane is acquired as a representative point.

このとき、測定処理部131は、ARシステムの平面検出により検出された平面のうち最も高さの低い平面(Y座標が最も小さい平面)を床面Fと推定して処理(平面探索処理から除外)するようにしてもよい。 At this time, the measurement processing unit 131 estimates the plane with the lowest height (the plane having the smallest Y coordinate) among the planes detected by the plane detection of the AR system as the floor surface F, and processes (excludes from the plane search process). ) May be done.

測定処理部131は、測定用仮想オブジェクトMOの代表点探索が成功すると、測定用仮想オブジェクトMOについて拡大縮小(移動)させる際に目標となる面(以下、「目標面」と呼ぶ)、及び寸法を拡大縮小させる方向(以下、「拡大縮小方向」と呼ぶ)を設定する(S302)。 When the measurement processing unit 131 succeeds in searching for the representative point of the virtual object MO for measurement, the measurement processing unit 131 has a target surface (hereinafter referred to as “target surface”) and dimensions when the virtual object MO for measurement is enlarged / reduced (moved). (Hereinafter referred to as "enlargement / reduction direction") is set (S302).

ここでは、測定処理部131は、ステップS301で代表点を探索した平面を目標面と決定し、目標面として決定した平面の法線方向を軸とした方向(目標面に直交する方向)を拡大縮小方向として決定するものとする。 Here, the measurement processing unit 131 determines the plane whose representative point is searched for in step S301 as the target plane, and expands the direction (direction orthogonal to the target plane) about the normal direction of the plane determined as the target plane. It shall be decided as the reduction direction.

次に、測定処理部131は、測定用仮想オブジェクトMOで操作対象(移動対象)となる面(この実施形態において、以下、「操作面」と呼ぶ)を決定する(S303)。 Next, the measurement processing unit 131 determines a surface (hereinafter, referred to as an “operation surface” in this embodiment) to be an operation target (movement target) in the measurement virtual object MO (S303).

例えば、測定処理部131は、測定用仮想オブジェクトMOから、最も目標面と向きが近い(回転角が近い;回転角の差分が少ない)面を操作面として選択するようにしてもよい。 For example, the measurement processing unit 131 may select a surface closest to the target surface (close to the rotation angle; small difference in rotation angle) as the operation surface from the measurement virtual object MO.

例えば、測定処理部131は、目標面の法線ベクトル(例えば、ワールド座標系の単位ベクトル)を、測定用仮想オブジェクトMOのローカルベクトル(測定用仮想オブジェクトMOにおけるローカル座標系のベクトル)に変換し、最も大きい成分に応じた面を操作面として決定するようにしてもよい。また、例えば、測定処理部131は、測定用仮想オブジェクトMOの各面の法線ベクトルについて目標面の法線ベクトルとの内積を算出し、最も内積の値が大きい面(すなわち、最も操作面と向きの近い面)を操作面として選択するようにしてもよい。 For example, the measurement processing unit 131 converts the normal vector of the target surface (for example, the unit vector of the world coordinate system) into the local vector of the virtual object MO for measurement (the vector of the local coordinate system in the virtual object MO for measurement). , The surface corresponding to the largest component may be determined as the operation surface. Further, for example, the measurement processing unit 131 calculates the inner product of the normal vector of each surface of the virtual object MO for measurement with the normal vector of the target surface, and the surface having the largest inner product value (that is, the operation surface). A surface having a similar orientation) may be selected as the operation surface.

次に、測定処理部131は、現在の目標面が、被測定物TOであるか否か(目標として妥当であるか否か)を判断し(S304)、被測定物TOである(目標として妥当である)と判断した場合には後述するステップS305から動作し、そうでない場合はステップS301に戻ってループする。 Next, the measurement processing unit 131 determines whether or not the current target surface is the object to be measured TO (whether or not it is appropriate as a target) (S304), and is the object to be measured TO (as a target). If it is determined that it is appropriate), the operation is performed from step S305 described later, and if not, the process returns to step S301 and loops.

ステップS304のような判断処理は必須ではないが、挿入することで、ユーザがフィッティング対象として意図していない物体(例えば、非測定物TOの周辺の荷物や壁等)についてまでオートフィット処理を行ってしまうことを避けるためである。 Judgment processing as in step S304 is not essential, but by inserting it, autofit processing is performed even for objects that the user does not intend as fitting targets (for example, luggage and walls around the non-measurement object TO). This is to avoid getting rid of it.

例えば、測定処理部131は、現在の目標面が最も測定用仮想オブジェクトMOから近い平面である場合に、現在の目標面が被測定物TOであると判断するようにしてもよい。具体的には、例えば、測定処理部131は、測定用仮想オブジェクトMOの中心位置から、ステップS302で決定した拡大縮小方向に応じた方向(例えば、目標面の法線方向と同じ方向)にレイを飛ばして最初に当たる平面が目標面であった場合は、目標面が被測定物TOである(目標として妥当である)と判断するようにしてもよい。 For example, the measurement processing unit 131 may determine that the current target surface is the object to be measured TO when the current target surface is the plane closest to the measurement virtual object MO. Specifically, for example, the measurement processing unit 131 rays from the center position of the virtual object MO for measurement in a direction corresponding to the enlargement / reduction direction determined in step S302 (for example, the same direction as the normal direction of the target surface). If the plane that hits first is the target plane, it may be determined that the target plane is the object TO to be measured (appropriate as a target).

現在の目標面が、被測定物TOである(目標として妥当である)と判定した場合、測定処理部131は、測定用仮想オブジェクトMOを回転(水平方向に回転)させて、測定用仮想オブジェクトMOの操作面と、被測定物TOの目標面の向きを一致(並行)させる(S305)。 When it is determined that the current target surface is the object to be measured TO (valid as a target), the measurement processing unit 131 rotates the measurement virtual object MO (rotates in the horizontal direction) to measure the measurement virtual object. The directions of the operation surface of the MO and the target surface of the object to be measured TO are aligned (parallel) (S305).

例えば、測定処理部131は、操作面の法線ベクトルの方向が、目標面の法線ベクトルの方向と一致するように測定用仮想オブジェクトMOを回転させる。 For example, the measurement processing unit 131 rotates the measurement virtual object MO so that the direction of the normal vector of the operation surface coincides with the direction of the normal vector of the target surface.

ステップS305において、測定処理部131は、測定用仮想オブジェクトMOについて回転させようとする際に、その回転量(回転する角度)が所定以下(例えば、2度以下)の場合には、当該回転処理を中止(キャンセル)して次の処理に移行するようにしてもよい。これは、測定処理部131による過度な頻度の回転処理(例えば、ユーザの手振れ等により発生する誤差に基づく回転処理)を抑制して、安定的且つ効率的なオートフィット処理を行うためである。 In step S305, when the measurement processing unit 131 tries to rotate the measurement virtual object MO, if the rotation amount (rotation angle) is less than or equal to a predetermined value (for example, 2 degrees or less), the rotation processing is performed. May be canceled (cancelled) to move to the next process. This is because the measurement processing unit 131 suppresses excessive frequency of rotation processing (for example, rotation processing based on an error generated by user's camera shake or the like) to perform stable and efficient autofit processing.

次に、測定処理部131は、測定用仮想オブジェクトMOの操作面を拡大縮小方向に移動(測定用仮想オブジェクトMOの寸法を拡大縮小方向に調整(拡大又は縮小))させる(操作する)ことで、操作面と被測定物TOの目標面の位置を一致させ(S306)、上述のステップS301に戻ってループする。 Next, the measurement processing unit 131 moves (operates) the operation surface of the measurement virtual object MO in the enlargement / reduction direction (adjusts (enlarges or reduces) the dimensions of the measurement virtual object MO in the enlargement / reduction direction). , The position of the operation surface and the target surface of the object to be measured TO are matched (S306), and the process returns to step S301 described above to loop.

ステップS306において、測定処理部131は、例えば、目標面の代表点(上述のステップS301で探索した代表点)が、操作面又は操作面の延長上に位置するように、測定用仮想オブジェクトMOの操作面を拡大縮小方向に移動させるようにしてもよい。 In step S306, the measurement processing unit 131 determines the measurement virtual object MO so that, for example, the representative point of the target surface (the representative point searched in step S301 described above) is located on the operation surface or an extension of the operation surface. The operation surface may be moved in the enlargement / reduction direction.

ステップS306において、測定処理部131は、操作面について移動させようとする際に、その移動量(調整量、操作量)が所定以下(例えば、実空間上で2cm相当以下)の場合には、当該移動処理(調整処理、操作処理)を中止(キャンセル)して次の処理に移行するようにしてもよい。これは、測定処理部131による過度な頻度の移動処理(例えば、ユーザの手振れ等により発生する誤差に基づく回転処理)を抑制して、安定的且つ効率的なオートフィット処理を行うためである。 In step S306, when the measurement processing unit 131 tries to move the operation surface, if the movement amount (adjustment amount, operation amount) is less than or equal to a predetermined value (for example, equivalent to 2 cm or less in the real space), The movement process (adjustment process, operation process) may be canceled (cancelled) to move to the next process. This is to suppress an excessively frequent movement process (for example, a rotation process based on an error caused by a user's camera shake) by the measurement processing unit 131 to perform a stable and efficient autofit process.

以上のように、第1のオートフィット処理では、測定装置10(カメラ12、タッチパネルディスプレイ11)の中央に写った被測定物TOの平面を目標面とし、測定用仮想オブジェクトMOから目標面に対応する1面を操作面として選択し、目標面を操作面と並行となるように測定用仮想オブジェクトMOを回転させ、目標面と操作面の位置が一致(操作面と目標面が直線上に並ぶことも含む)するように、操作面を移動(測定用仮想オブジェクトMOの拡大縮小方向の寸法を調整)することを繰り返している。 As described above, in the first autofit processing, the plane of the object to be measured TO reflected in the center of the measuring device 10 (camera 12, touch panel display 11) is set as the target surface, and the virtual object MO for measurement corresponds to the target surface. Select one surface as the operation surface, rotate the virtual object MO for measurement so that the target surface is parallel to the operation surface, and the positions of the target surface and the operation surface match (the operation surface and the target surface are aligned on a straight line). The operation surface is repeatedly moved (adjusting the dimensions in the enlargement / reduction direction of the virtual object MO for measurement) so as to move (including the above).

次に、測定処理部131が、上述の図25のフローチャートに従って第1のオートフィット処理を行った場合の具体例について説明する。 Next, a specific example will be described when the measurement processing unit 131 performs the first autofit processing according to the flowchart of FIG. 25 described above.

ここでは、被測定物TOと測定装置10(カメラ12)とが図26のような位置関係にある場合におけるオートフィット処理の例について説明する。 Here, an example of autofit processing in the case where the object to be measured TO and the measuring device 10 (camera 12) have a positional relationship as shown in FIG. 26 will be described.

図26では、測定装置10(カメラ12)の光軸は、被測定物TOの一側面に向けられているものとする。図26では、測定装置10(カメラ12)の光軸は、被測定物TOの正面T_FFに向けられているものとする。以下では、正面T_FFに対向する面を背面T_FB、正面T_FFの上側に隣接する面を上面T_FU、正面T_FFの下側に隣接する面を下面T_FS、正面T_FFに向かって左側に隣接する面を左面T_FL、正面T_FFに向かって右側に隣接する面を右面T_FRと呼ぶものとする。 In FIG. 26, it is assumed that the optical axis of the measuring device 10 (camera 12) is directed to one side surface of the object to be measured TO. In FIG. 26, it is assumed that the optical axis of the measuring device 10 (camera 12) is directed to the front surface T_FF of the object to be measured TO. In the following, the surface facing the front T_FF is the back T_FB, the surface adjacent to the upper side of the front T_FF is the upper surface T_FU, the surface adjacent to the lower side of the front T_FF is the lower surface T_FS, and the surface adjacent to the left side toward the front T_FF is the left surface. The surface adjacent to the right side of T_FL and the front surface T_FF is referred to as the right surface T_FR.

図26では、測定装置10(カメラ12)の光軸は、被測定物TOの正面T_FFに対してやや斜めから向けられている。ここでは、被測定物TOと測定装置10(カメラ12)とが図26のような位置関係にあるときに、測定処理部131でフィッティング処理が開始され、オートフィットオン状態となったものとする。 In FIG. 26, the optical axis of the measuring device 10 (camera 12) is directed slightly obliquely with respect to the front surface T_FF of the object to be measured TO. Here, it is assumed that when the object to be measured TO and the measuring device 10 (camera 12) are in the positional relationship as shown in FIG. 26, the measuring processing unit 131 starts the fitting process and is in the auto-fit-on state. ..

このとき、測定装置10(タッチパネルディスプレイ11)に表示されるフィッティング処理画面は、図27のような状態となる。 At this time, the fitting processing screen displayed on the measuring device 10 (touch panel display 11) is in the state as shown in FIG. 27.

このとき、測定処理部131は、ステップS301の処理において、タッチパネルディスプレイ11の画面中央からカメラの光軸方向にレイを飛ばすと、被測定物TOの正面T_FFにヒットするため、代表点として被測定物TOの正面T_FFの中央位置PRを取得することになる。 At this time, in the process of step S301, when the measurement processing unit 131 shoots a ray from the center of the screen of the touch panel display 11 in the optical axis direction of the camera, it hits the front T_FF of the object to be measured TO, so that the measurement is performed as a representative point. The center position PR of the front T_FF of the object TO will be acquired.

このとき、被測定物TOと測定用仮想オブジェクトMOとを上側からみると図28のような状態となる。 At this time, when the object TO to be measured and the virtual object MO for measurement are viewed from above, the state is as shown in FIG. 28.

図28は、オートフィット処理における被測定物TOと測定用仮想オブジェクトMOとの初期の位置関係を示している。 FIG. 28 shows the initial positional relationship between the object TO to be measured and the virtual object MO for measurement in the autofit process.

図28において、被測定物TOの正面T_FFの法線ベクトルの矢印をV_T_FF、測定用仮想オブジェクトMOの正面FFの法線ベクトルの矢印をV_FFと図示している。 In FIG. 28, the arrow of the normal vector of the front T_FF of the object to be measured is shown as V_T_FF, and the arrow of the normal vector of the front FF of the virtual object MO for measurement is shown as V_FF.

したがって、このとき、測定処理部131は、ステップS302の処理において、目標面として正面T_FFと設定し、拡大縮小方向の軸として正面T_FFの法線方向(法線ベクトルV_T_FFの方向)を選択することになる。 Therefore, at this time, in the process of step S302, the measurement processing unit 131 sets the front surface T_FF as the target surface and selects the normal direction of the front surface T_FF (the direction of the normal vector V_T_FF) as the axis of the enlargement / reduction direction. become.

また、このとき、ステップS303の処理において、目標面である正面T_FFの法線ベクトルV_T_FF(ワールド座標系の単位ベクトル)を取得して、測定用仮想オブジェクトMOのローカルベクトル(ローカル座標系のベクトル)に変換し、最も大きい成分に応じた面を操作面として決定する。 Further, at this time, in the process of step S303, the normal vector V_T_FF (unit vector of the world coordinate system) of the front surface T_FF, which is the target surface, is acquired, and the local vector of the virtual object MO for measurement (vector of the local coordinate system). Is converted to, and the surface corresponding to the largest component is determined as the operation surface.

図28では、右下に測定用仮想オブジェクトMOにおけるローカル座標系について図示している。 In FIG. 28, the local coordinate system in the measurement virtual object MO is shown in the lower right.

測定用仮想オブジェクトMOのローカル座標系では、中心位置PCから見て、奥行方向をZ軸、幅方向をX軸、高さ方向をY軸とする。また、測定用仮想オブジェクトMOのローカル座標系では、中心位置PCから見て、正面T_FFへの方向を+Z方向(Z座標の値が増える方向)、背面T_FBへの方向を−Z方向(Z座標の値が減る方向)、上面T_FUへの方向を+Y方向(Y座標の値が増える方向)、下面T_FSへの方向を−Y方向(Y座標の値が減る方向)、左面T_FLへの方向を−X方向(X座標の値が減る方向)、右面T_FRへの方向を+X方向(X座標の値が増える方向)とそれぞれ設定されているものとする。なお、図28では説明を簡易とするため上側から見た図となっているので高さ方向のY軸は省略して図示している。 In the local coordinate system of the virtual object MO for measurement, the depth direction is the Z axis, the width direction is the X axis, and the height direction is the Y axis when viewed from the center position PC. Further, in the local coordinate system of the virtual object MO for measurement, the direction toward the front T_FF is the + Z direction (the direction in which the Z coordinate value increases) and the direction toward the back T_FB is the -Z direction (Z coordinate) when viewed from the center position PC. The direction toward the upper surface T_FU is the + Y direction (the direction in which the Y coordinate value increases), the direction toward the lower surface T_FS is the -Y direction (the direction in which the Y coordinate value decreases), and the direction toward the left surface T_FL. It is assumed that the −X direction (the direction in which the value of the X coordinate decreases) and the direction toward the right surface T_FR are set as the + X direction (the direction in which the value of the X coordinate increases). In FIG. 28, since the view is viewed from above for the sake of simplicity, the Y-axis in the height direction is omitted.

そして、このとき、測定処理部131が、正面T_FFの法線ベクトルV_T_TF(ワールド座標系において絶対値が1の単位ベクトル)を、測定用仮想オブジェクトMOのローカル座標系の座標(図28に示す幅X、高さY、奥行Zの各座標値で表される座標)に変換した結果、ベクトルV_T_TFは幅X=−0.5、高さY=0、奥行Z=+0.87という値となったものとする。この場合、ベクトルV_T_TFでは、+Z方向が最も大きな成分であることが分かるので、測定処理部131は、操作面として+Z方向に対応する正面FFを選択することになる。 Then, at this time, the measurement processing unit 131 sets the normal vector V_T_TF of the front surface T_FF (a unit vector having an absolute value of 1 in the world coordinate system) to the coordinates of the local coordinate system of the virtual object MO for measurement (width shown in FIG. 28). As a result of conversion to (coordinates represented by each coordinate value of X, height Y, and depth Z), the vector V_T_TF has a value of width X = -0.5, height Y = 0, and depth Z = +0.87. It shall be. In this case, since it is found that the + Z direction is the largest component in the vector V_T_TF, the measurement processing unit 131 selects the front FF corresponding to the + Z direction as the operation surface.

なお、図28から、測定用仮想オブジェクトMOの各面の法線ベクトルのうち、目標面の法線ベクトルV_T_FFと最も向きの近いもの(例えば、最も内積の大きいもの)に対応する面を選んでも、同様に正面FFという結果となることが分かる。 From FIG. 28, among the normal vectors of each surface of the virtual object MO for measurement, the surface corresponding to the one closest to the normal vector V_T_FF of the target surface (for example, the one having the largest inner product) may be selected. Similarly, it can be seen that the result is front FF.

さらに、このとき、ステップS304の処理において、測定処理部131は、測定用仮想オブジェクトMOの中心位置PCから、ステップS302で決定した拡大縮小方向に応じた方向(例えば、目標面の法線方向)にレイを飛ばすと、最初に当接する平面が被測定物TOの正面T_FFとなるため、現在の操作面は、真に被測定物TOの平面である(最も測定用仮想オブジェクトMOと近く、被測定物TOの面として相応しい)と認定し、ステップS305以後の処理に移行することになる。ここでは、測定用仮想オブジェクトMOの中心位置PCは被測定物TOの内部に位置するため、被測定物TOの周囲に他の平面(例えば、壁等)が存在したとしても、正面T_FFが最も近い平面ということになる。 Further, at this time, in the process of step S304, the measurement processing unit 131 is directed from the center position PC of the measurement virtual object MO to the direction corresponding to the enlargement / reduction direction determined in step S302 (for example, the normal direction of the target plane). When the ray is blown to, the plane that first abuts becomes the front surface T_FF of the object to be measured, so the current operation surface is truly the plane of the object to be measured (closest to the virtual object MO for measurement and is subject to measurement). It is determined that it is suitable as a surface of the measurement object TO), and the process proceeds to the process after step S305. Here, since the central position PC of the virtual object MO for measurement is located inside the object TO to be measured, the front surface T_FF is the most even if another plane (for example, a wall or the like) exists around the object TO to be measured. It will be a close plane.

次に、測定処理部131は、ステップS305の処理により、図28の状態から、操作対称面である正面FFの法線ベクトルV_FFが、目標面である正面T_FFの法線ベクトルV_T_FFと一致するように(並行となるように)、測定用仮想オブジェクトMOを回転させる。 Next, the measurement processing unit 131 makes the normal vector V_FF of the front surface FF, which is the operation symmetric plane, coincide with the normal vector V_T_FF of the front surface T_FF, which is the target surface, from the state of FIG. 28 by the process of step S305. In (so that they are parallel), the measurement virtual object MO is rotated.

このとき、被測定物TOと測定用仮想オブジェクトMOとの位置関係は、図28から図29のような状態となる。 At this time, the positional relationship between the object TO to be measured and the virtual object MO for measurement is as shown in FIGS. 28 to 29.

図29では、操作対称面である正面FFの法線ベクトルV_FFが、目標面である正面T_FFの法線ベクトルV_T_FFと一致(並行)している。 In FIG. 29, the normal vector V_FF of the front FF, which is the operation symmetric plane, coincides (parallel) with the normal vector V_T_FF of the front T_FF, which is the target plane.

次に、測定処理部131は、ステップS306の処理により、測定用仮想オブジェクトMOの操作面である正面FFを、拡大縮小方向(法線ベクトルV_FF/V_T_TFの方向)に移動(縮小する方向に移動)させることで、図30に示すように目標面の代表点(被測定物TOの正面T_FF上の代表点PR)を、測定用仮想オブジェクトMOの操作面(正面FF)上に位置させる。 Next, the measurement processing unit 131 moves (moves in the direction of reducing) the front FF, which is the operation surface of the virtual object MO for measurement, in the enlargement / reduction direction (direction of the normal vector V_FF / V_T_TF) by the process of step S306. ), As shown in FIG. 30, the representative point of the target surface (representative point PR on the front surface T_FF of the object to be measured TO) is positioned on the operation surface (front surface FF) of the virtual object MO for measurement.

以上のように、測定装置10(カメラ12)を、オートフィットオン状態で動作させ、被測定物TOの正面T_FFが中央に写るように(タッチパネルディスプレイ11の中央に写るように)配置することで、図30に示すように、自動的に測定用仮想オブジェクトMOの正面FFと被測定物TOの正面T_FFとを一致させることができる。 As described above, the measuring device 10 (camera 12) is operated in the auto-fit-on state, and the front T_FF of the object to be measured TO is arranged so as to be in the center (so that it is reflected in the center of the touch panel display 11). As shown in FIG. 30, the front FF of the virtual object MO for measurement and the front T_FF of the object TO to be measured can be automatically matched.

以後、ユーザの操作が測定装置10を把持し、被測定物TOの各面(右面T_FR、背面T_FB、左面T_FL、及び上面T_FU)のそれぞれが中央に写るように配置することで、図31に示すように、自動的に測定用仮想オブジェクトMOの全ての面を被測定物TOにフィットさせることができる。 After that, the user's operation grips the measuring device 10 and arranges each surface of the object to be measured TO (right surface T_FR, rear surface T_FB, left surface T_FL, and upper surface T_FU) so as to be centered in FIG. 31. As shown, all surfaces of the virtual object MO for measurement can be automatically fitted to the object TO to be measured.

[第2のオートフィット処理]
次に、測定処理部131による第2のオートフィット処理について説明する。
[Second autofit processing]
Next, the second autofit processing by the measurement processing unit 131 will be described.

第1のオートフィット処理では、ARシステムにおける物体の平面検出処理を用いて被測定物TOの外形を認識していたが、第2のオートフィット処理ではARシステムにおける物体の特徴点検出処理を用いて被測定物TOの外形を認識するものとする。 In the first autofit processing, the outer shape of the object to be measured TO was recognized by using the plane detection process of the object in the AR system, but in the second autofit process, the feature point detection process of the object in the AR system was used. The outer shape of the object to be measured TO shall be recognized.

AR処理における特徴点とは、カメラ画像等から物体を追跡(トラッキング)するためのマーカとして機能する要素であり、例えば、鋭角な形状/模様等が挙げられる。一般的なARシステムでは、カメラ画像やセンサデータ等から特徴点(特徴点の3D座標)の群(点群)を検出し、検出した特徴点の点群から所望の物体の追跡等を行うことが可能となっている。 The feature point in the AR process is an element that functions as a marker for tracking an object from a camera image or the like, and examples thereof include an acute-angled shape / pattern. In a general AR system, a group (point cloud) of feature points (3D coordinates of feature points) is detected from camera images, sensor data, etc., and a desired object is tracked from the point cloud of the detected feature points. Is possible.

例えば、Unity/ARkitでは、AR開発用フレームワークとしてARFoundationが存在し、このARFoundationでは、カメラ画像等から特徴点の点群を処理するクラスとして、ARPointCloudManagerというクラスが存在する。種々のARシステムでは、このような特徴点の点群を検出可能なクラスが存在している。なお、この実施形態において、特徴点を検出する具体的手法については限定されないものである。 For example, in Unity / ARkit, ARFoundation exists as a framework for AR development, and in this ARFoundation, there is a class called ARPPointCloudManager as a class for processing a point cloud of feature points from a camera image or the like. In various AR systems, there are classes that can detect a point cloud of such feature points. In this embodiment, the specific method for detecting the feature points is not limited.

すなわち、測定処理部131において、ARシステムで検出される特徴点の点群(以下、「特徴点群」と呼ぶ)は、カメラ12の視野内に存在する物体の外形(表面)に沿った位置を示している。そこで、第2のオートフィット処理は、取得した特徴点群の中から、被測定物TOの表面となる特徴点を推定して目標(目標点)として取得し、当該代表点を目標として測定用仮想オブジェクトMOで対応する面を操作することでオートフィット処理を行うものとする。ここでは、AR処理部131aに、カメラ12で撮像された画像やセンサ部14のセンサデータに基づき測定装置10の周辺における特徴点群の検出を行うことが可能なARシステムが搭載されているものとして説明する。 That is, in the measurement processing unit 131, the point cloud of the feature points detected by the AR system (hereinafter referred to as “feature point cloud”) is a position along the outer shape (surface) of the object existing in the field of view of the camera 12. Is shown. Therefore, in the second autofit process, the feature points on the surface of the object to be measured TO are estimated from the acquired feature point group and acquired as a target (target point), and the representative point is used as a target for measurement. Autofit processing shall be performed by manipulating the corresponding surface in the virtual object MO. Here, the AR processing unit 131a is equipped with an AR system capable of detecting a group of feature points in the vicinity of the measuring device 10 based on the image captured by the camera 12 and the sensor data of the sensor unit 14. It is explained as.

以上のような第2のオートフィット処理は、例えば、図32のフローチャートのように示すことができる。 The second autofit process as described above can be shown, for example, as shown in the flowchart of FIG. 32.

次に、測定処理部131による第2のオートフィット処理について、図32のフローチャートを用いて説明する。 Next, the second autofit processing by the measurement processing unit 131 will be described with reference to the flowchart of FIG. 32.

測定処理部131は、オートフィットオン状態となると、最新にAR処理部131a(ARシステム)で取得された特徴点群のデータ(各特徴点の3D座標等)を取得する(S401)。 When the autofit-on state is set, the measurement processing unit 131 acquires the data of the feature point group (3D coordinates of each feature point, etc.) recently acquired by the AR processing unit 131a (AR system) (S401).

次に、測定処理部131は、取得した特徴点群から、被測定物TOの表面/外形上の特徴点として相応しいものを選択し、目標点として取得する(S402)。 Next, the measurement processing unit 131 selects a suitable feature point on the surface / outer shape of the object to be measured TO from the acquired feature point group and acquires it as a target point (S402).

測定処理部131が特徴点群から目標点を選択する手法については限定されないものであるが、例えば、以下のような処理を適用するようにしてもよい。例えば、測定処理部131は、カメラ12の光軸に最も近い特徴点(フィッティング処理画面上で中央部分に最も近い特徴点)を目標点として選択するようにしてもよい。また、このとき、測定処理部131は、床面F上と推定される特徴点や、フィッティング処理画面で現在写っている視野の外側に存在する特徴点については、目標点の候補から除外することが望ましい。例えば、測定処理部131は、ARシステムの平面検出により検出された平面のうち最も高さの低い平面(Y座標が最も小さい平面)を床面Fと推定し、床面Fと同じか所定範囲内の高さ(例えば、床面FとY座標の差分が3cm相当以下)の特徴点についは床面F上の特徴点として認識するようにしてもよい。 The method by which the measurement processing unit 131 selects the target point from the feature point group is not limited, but for example, the following processing may be applied. For example, the measurement processing unit 131 may select the feature point closest to the optical axis of the camera 12 (the feature point closest to the central portion on the fitting processing screen) as the target point. At this time, the measurement processing unit 131 excludes the feature points presumed to be on the floor surface F and the feature points existing outside the field of view currently displayed on the fitting processing screen from the candidates for the target points. Is desirable. For example, the measurement processing unit 131 estimates that the plane with the lowest height (the plane with the smallest Y coordinate) among the planes detected by the plane detection of the AR system is the floor surface F, and is the same as or within a predetermined range of the floor surface F. A feature point of the inner height (for example, the difference between the floor surface F and the Y coordinate is equivalent to 3 cm or less) may be recognized as a feature point on the floor surface F.

次に、測定処理部131は、測定用仮想オブジェクトMOから操作面を選択する(S403)。 Next, the measurement processing unit 131 selects an operation surface from the measurement virtual object MO (S403).

測定処理部131が操作面を選択する手法については限定されないものであるが、例えば、以下のような処理を適用するようにしてもよい。 The method by which the measurement processing unit 131 selects the operation surface is not limited, but for example, the following processing may be applied.

例えば、測定処理部131は、カメラ12の光軸方向と逆方向(つまり、測定装置10から見て目標点から手前側の方向)に存在する測定用仮想オブジェクトMOの面を操作面として選択するようにしてもよい。例えば、測定用仮想オブジェクトMOが初期状態において、被測定物TOを内包するような位置大きさであるとすれば、測定処理部131は、上記のような処理で、代表点に対応する適切な操作面を取得することができる。 For example, the measurement processing unit 131 selects the surface of the virtual object MO for measurement existing in the direction opposite to the optical axis direction of the camera 12 (that is, the direction toward the front side from the target point when viewed from the measurement device 10) as the operation surface. You may do so. For example, if the measurement virtual object MO has a position size that includes the object to be measured TO in the initial state, the measurement processing unit 131 performs the above processing and is appropriate to correspond to the representative point. The operation surface can be acquired.

次に、測定処理部131は、測定用仮想オブジェクトMOについて拡大縮小方向を選択する(S404)。 Next, the measurement processing unit 131 selects the enlargement / reduction direction for the measurement virtual object MO (S404).

測定処理部131が拡大縮小方向を選択する手法については限定されないものであるが、例えば、以下のような処理を適用するようにしてもよい。 The method by which the measurement processing unit 131 selects the enlargement / reduction direction is not limited, but for example, the following processing may be applied.

例えば、測定処理部131は、操作面について、カメラ12の光軸の反対の側(カメラ12から見て手前側)を拡大縮小方向とするようにしてもよい。例えば、測定用仮想オブジェクトMOが初期状態において、被測定物TOを内包するような位置/大きさであるとすれば、測定処理部131は、上記のような処理で、オートフィット処理に最適な拡大縮小方向を取得することができる。 For example, the measurement processing unit 131 may set the operation surface on the side opposite to the optical axis of the camera 12 (the front side when viewed from the camera 12) in the enlargement / reduction direction. For example, if the measurement virtual object MO has a position / size that includes the object to be measured TO in the initial state, the measurement processing unit 131 is optimal for autofit processing by the above processing. The enlargement / reduction direction can be acquired.

また、例えば、測定処理部131は、目標点を、拡大縮小対象面上又は操作面の延長線上に位置するようにするためには、操作面をいずれの方向に移動させる必要があるかを判断し、判断した方向に応じた拡大縮小方向を選択するようにしてもよい。例えば、測定処理部131は、測定装置10(カメラ12)から見て操作面の手前側に目標点が存在する場合は、操作面を手前側に移動させる方向(操作面と直交する方向に測定用仮想オブジェクトMOの寸法を拡大する方向)を拡大縮小方向として選択し、測定装置10(カメラ12)から見て操作面の奥側に目標点が存在する場合は、操作面を奥側に移動させる方向(操作面と直交する方向に測定用仮想オブジェクトMOの寸法を縮小する方向)を拡大縮小方向として選択するようにしてもよい。 Further, for example, the measurement processing unit 131 determines in which direction the operation surface needs to be moved in order to position the target point on the enlargement / reduction target surface or on the extension line of the operation surface. Then, the enlargement / reduction direction may be selected according to the determined direction. For example, when the target point exists on the front side of the operation surface when viewed from the measuring device 10 (camera 12), the measurement processing unit 131 measures in the direction of moving the operation surface toward the front side (in the direction orthogonal to the operation surface). (Direction for expanding the dimensions of the virtual object MO) is selected as the enlargement / reduction direction, and if the target point exists on the back side of the operation surface when viewed from the measuring device 10 (camera 12), the operation surface is moved to the back side. The direction in which the measurement is to be performed (the direction in which the dimension of the virtual object MO for measurement is reduced in the direction orthogonal to the operation surface) may be selected as the enlargement / reduction direction.

次に、測定処理部131は、カメラ12が測定用仮想オブジェクトMOのいずれかの面と正対しているか否かを確認し(S405)、正対していると判断した場合には後述するステップS406から動作し、そうでない場合には上述のステップS401に戻ってループする。 Next, the measurement processing unit 131 confirms whether or not the camera 12 faces any surface of the virtual object MO for measurement (S405), and if it determines that the camera 12 faces any surface, step S406 described later. If not, the process returns to step S401 described above and loops.

例えば、測定処理部131は、タッチパネルディスプレイ11の画面中央からカメラ12の光軸方向にレイを飛ばし、当該レイが測定用仮想オブジェクトMOに当たった場合、当該レイと当該レイが当たった面が成す角度(以下、「交差角度」と呼ぶ)を取得し、取得した交差角度が90度±α(αは例えば3度〜5度)の範囲内の場合に、カメラ12が測定用仮想オブジェクトMOのいずれかの面と正対していると判断するようにしてもよい。 For example, the measurement processing unit 131 shoots a ray from the center of the screen of the touch panel display 11 in the optical axis direction of the camera 12, and when the ray hits the virtual object MO for measurement, the ray and the surface hit by the ray are formed. When the angle (hereinafter referred to as "intersection angle") is acquired and the acquired intersection angle is within the range of 90 degrees ± α (α is, for example, 3 degrees to 5 degrees), the camera 12 determines the measurement virtual object MO. It may be determined that it faces either side.

そして、カメラ12が測定用仮想オブジェクトMOのいずれかの面と正対していると判断された場合、測定処理部131は、測定用仮想オブジェクトMOの操作面を選択した拡大縮小方向に移動(測定用仮想オブジェクトMOの寸法を拡大縮小方向に調整)させ、操作面と被測定物TOの目標点の位置を一致させ(S406)、上述のステップS401に戻ってループする。 Then, when it is determined that the camera 12 faces any surface of the virtual object MO for measurement, the measurement processing unit 131 moves (measures) the operation surface of the virtual object MO for measurement in the selected enlargement / reduction direction. The dimension of the virtual object MO for measurement is adjusted in the enlargement / reduction direction), the positions of the operation surface and the target point of the object to be measured TO are aligned (S406), and the process returns to step S401 described above to loop.

次に、測定処理部131が、上述の図32のフローチャートに従って第2のオートフィット処理を行った場合の例について説明する。 Next, an example in which the measurement processing unit 131 performs the second autofit processing according to the flowchart of FIG. 32 described above will be described.

ここでは、被測定物TOと測定装置10(カメラ12)とが図33のような位置関係にある場合におけるオートフィット処理の例について説明する。 Here, an example of autofit processing in the case where the object to be measured TO and the measuring device 10 (camera 12) have a positional relationship as shown in FIG. 33 will be described.

図33では、測定装置10(カメラ12)の光軸は、被測定物TOの一側面に向けられているものとする。図33では、測定装置10(カメラ12)の光軸は、被測定物TOの正面T_FFに概ね正対するように向けられているものとする。 In FIG. 33, it is assumed that the optical axis of the measuring device 10 (camera 12) is directed to one side surface of the object to be measured TO. In FIG. 33, it is assumed that the optical axis of the measuring device 10 (camera 12) is oriented so as to substantially face the front surface T_FF of the object to be measured TO.

ここでは、被測定物TOと測定装置10(カメラ12)とが図33のような位置関係にあるときに、測定処理部131でフィッティング処理が開始され、オートフィットオン状態となったものとする。 Here, it is assumed that when the object to be measured TO and the measuring device 10 (camera 12) are in the positional relationship as shown in FIG. 33, the measuring processing unit 131 starts the fitting process and is in the auto-fit-on state. ..

このとき、測定装置10(タッチパネルディスプレイ11)に表示されるフィッティング処理画面は、図34のような状態となる。 At this time, the fitting processing screen displayed on the measuring device 10 (touch panel display 11) is in the state as shown in FIG. 34.

このとき、測定処理部131が、ステップS401の処理において、特徴点群を取得すると、その特徴点は図35のような分布となったものとする。 At this time, when the measurement processing unit 131 acquires the feature point group in the process of step S401, it is assumed that the feature points have a distribution as shown in FIG. 35.

そうすると、測定処理部131は、カメラ12の光軸に最も近い特徴点(フィッティング処理画面上で中央部分に最も近い特徴点)として、面T_FF上の点PTを目標点として取得することになる。 Then, the measurement processing unit 131 acquires the point PT on the surface T_FF as the target point as the feature point closest to the optical axis of the camera 12 (the feature point closest to the central portion on the fitting processing screen).

このとき、被測定物TOと測定用仮想オブジェクトMOとを上側からみると図36のような状態となる。 At this time, when the object TO to be measured and the virtual object MO for measurement are viewed from above, the state is as shown in FIG. 36.

図36は、オートフィット処理における被測定物TOと測定用仮想オブジェクトMOとの初期の位置関係を示している。 FIG. 36 shows the initial positional relationship between the object TO to be measured and the virtual object MO for measurement in the autofit process.

また、このとき、測定用仮想オブジェクトMOにおいて、カメラ12の光軸方向と逆方向(つまり、測定装置10から見て目標点から手前側の方向)は、正面FFとなる。したがって、測定処理部131は、ステップS403の処理において、カメラ12の光軸方向と逆方向に存在する正面FFを操作面に選択することになる。 Further, at this time, in the measurement virtual object MO, the direction opposite to the optical axis direction of the camera 12 (that is, the direction toward the front side from the target point when viewed from the measuring device 10) is the front FF. Therefore, in the process of step S403, the measurement processing unit 131 selects the front FF existing in the direction opposite to the optical axis direction of the camera 12 as the operation surface.

さらに、このとき、測定装置10(カメラ12)から見て操作面(正面FF)の奥側に目標点PTが存在するため、測定処理部131は、ステップS404において、操作面(正面FF)を奥側に移動させる方向(奥行方向の寸法を縮小させる方向)を拡大縮小方向として選択することになる。 Further, at this time, since the target point PT exists on the back side of the operation surface (front FF) when viewed from the measuring device 10 (camera 12), the measurement processing unit 131 sets the operation surface (front FF) in step S404. The direction of moving to the back side (the direction of reducing the dimension in the depth direction) is selected as the enlargement / reduction direction.

さらにまた、このとき、タッチパネルディスプレイ11の画面中央からカメラ12の光軸方向にレイを飛ばした場合、当該レイは操作面(正面FF)に当節し、当該レイと正面FFとが成す角度が所定範囲内(例えば、90度±3度)であったものとする。そうすると、測定処理部131は、ステップS405において、カメラ12が測定用仮想オブジェクトMOの操作面(正面FF)と正対していると判断することになり、ステップS406の処理に移行することになる。 Furthermore, at this time, when a ray is blown from the center of the screen of the touch panel display 11 in the optical axis direction of the camera 12, the ray corresponds to the operation surface (front FF), and the angle formed by the ray and the front FF is It is assumed that the temperature is within the predetermined range (for example, 90 degrees ± 3 degrees). Then, in step S405, the measurement processing unit 131 determines that the camera 12 faces the operation surface (front FF) of the virtual object MO for measurement, and proceeds to the process of step S406.

そして、測定処理部131は、ステップS406において、測定用仮想オブジェクトMOの操作面である正面FFを、選択した拡大縮小方向(測定用仮想オブジェクトMOの奥行方向の寸法を縮小させる方向)に移動させることで、図37に示すように被測定物TOの目標点と測定用仮想オブジェクトMOの操作面(正面FF)の位置を一致(フィット)させる。 Then, in step S406, the measurement processing unit 131 moves the front FF, which is the operation surface of the measurement virtual object MO, in the selected enlargement / reduction direction (direction in which the dimension in the depth direction of the measurement virtual object MO is reduced). As a result, as shown in FIG. 37, the positions of the target point of the object to be measured TO and the operation surface (front FF) of the virtual object MO for measurement are matched (fitted).

以後、ユーザの操作が測定装置10を把持し、被測定物TOの各面(右面T_FR、背面T_FB、左面T_FL、及び上面T_FU)のそれぞれが中央に写るように配置することで、図31に示すように、自動的に測定用仮想オブジェクトMOの全ての面を被測定物TOにフィットさせることができる。 After that, the user's operation grips the measuring device 10 and arranges each surface of the object to be measured TO (right surface T_FR, rear surface T_FB, left surface T_FL, and upper surface T_FU) so as to be centered in FIG. 31. As shown, all surfaces of the virtual object MO for measurement can be automatically fitted to the object TO to be measured.

[第3のオートフィット処理]
上述の通り、第1のオートフィット処理では平面検出結果を用いたオートフィット処理が行われ、第2のオートフィット処理では特徴点群の検出結果を用いたオートフィット処理が行われる。
[Third autofit processing]
As described above, in the first autofit processing, the autofit processing using the plane detection result is performed, and in the second autofit processing, the autofit processing using the detection result of the feature point group is performed.

一般的に、平面検出よりも特徴点群の検出処理の方が少ない処理量で高速に実行可能であるため、第2のオートフィット処理の方がオートフィット処理の処理量が少なくより高速な処理(効率的な処理;より短時間での処理)が可能となる。 In general, the feature point cloud detection process can be executed at a higher speed with a smaller amount of processing than the plane detection, so that the second autofit process has a smaller amount of autofit processing and is faster. (Efficient processing; processing in a shorter time) becomes possible.

また、第2のオートフィット処理では、平面検出結果を用いないため、被測定物TOの形状が多面体でない場合(例えば、一部又は全部に曲面が形成された物体)や、ある程度複雑な形状であってもオートフィット処理を行うことができる。 Further, in the second autofit processing, since the plane detection result is not used, the shape of the object to be measured TO is not a polyhedron (for example, an object having a curved surface formed in part or all), or the shape is complicated to some extent. Even if there is, auto-fit processing can be performed.

さらに、第2のオートフィット処理では、第1のオートフィット処理よりも精度が悪かったり、オートフィット処理の対象として狙った被測定物TO以外に対してオートフィット処理を試みてしまう等の問題(第2のオートフィット処理の方が処理精度が低い)がある。これは、本来特徴点群は平面を検出するための要素ではないために発生する問題である。 Further, the second autofit processing has a problem that the accuracy is lower than that of the first autofit processing, and the autofit processing is attempted for a target object other than the object TO to be the target of the autofit processing. The second autofit process has lower processing accuracy). This is a problem that occurs because the feature point group is not originally an element for detecting a plane.

そこで、第3のオートフィット処理では、第1のオートフィット処理と第2のオートフィット処理を使い分ける方式を採用することで、第1のオートフィット処理と第2のオートフィット処理の両方のメリットを発生させることができる。 Therefore, in the third autofit processing, by adopting a method of properly using the first autofit processing and the second autofit processing, the merits of both the first autofit processing and the second autofit processing can be obtained. Can be generated.

上述の通り、第2のオートフィット処理では、認識速度は速いものの精度に関しては第1のオートフィット処理よりも劣る。したがって、例えば、第3のオートフィット処理では、被測定物TOの平面検出ができない場合に第2のオートフィット処理を適用し、被測定物TOの平面検出ができた場合には第1のオートフィット処理を採用するようにしてもよい。 As described above, in the second autofit processing, although the recognition speed is high, the accuracy is inferior to that of the first autofit processing. Therefore, for example, in the third autofit process, the second autofit process is applied when the plane of the object to be measured TO cannot be detected, and the first auto is applied when the plane of the object to be measured TO can be detected. A fit process may be adopted.

具体的には、例えば、測定処理部131は、第3のオートフィット処理において、図38のフローチャートに基づいて、第1のオートフィット処理と第2のオートフィット処理を切り換えるようにしてもよい。 Specifically, for example, the measurement processing unit 131 may switch between the first autofit processing and the second autofit processing in the third autofit processing based on the flowchart of FIG. 38.

図38は、測定処理部131で第3のオートフィット処理が行われる際の動作の例について示したフローチャートである。 FIG. 38 is a flowchart showing an example of an operation when the measurement processing unit 131 performs the third autofit processing.

この場合、測定処理部131は、オートフィットオン状態となると、ARシステムにより平面検出を試みる(S501)。 In this case, when the measurement processing unit 131 is in the autofit-on state, the measurement processing unit 131 attempts to detect the plane by the AR system (S501).

このとき、測定処理部131は、平面検出ができない場合は再度ステップS501の処理に戻ってループする。また、このとき、タッチパネルディスプレイ11の画面中央に床面を検出した場合には後述するステップS502の処理に移行する。さらに、このとき、測定処理部131は、タッチパネルディスプレイ11の画面中央に床面以外の平面を検出した場合には当該平面を被測定物TOの平面と推定できるため、後述のステップS503の処理に移行して第1のオートフィット処理を行う。 At this time, if the plane detection cannot be performed, the measurement processing unit 131 returns to the processing of step S501 and loops. At this time, if the floor surface is detected in the center of the screen of the touch panel display 11, the process proceeds to step S502 described later. Further, at this time, when the measurement processing unit 131 detects a plane other than the floor surface in the center of the screen of the touch panel display 11, the plane can be estimated as the plane of the object to be measured TO. The transition is performed and the first autofit processing is performed.

一方、ステップS501で、タッチパネルディスプレイ11の画面中央に床面が検出された場合、測定処理部131は、カメラ12が測定用仮想オブジェクトMOのいずれかの面と正対しているか否かを確認し(S502)、正対していると判断した場合には後述するステップS504に移行して第2のオートフィット処理を行い、そうでない場合には上述のステップS501に戻ってループする。 On the other hand, when the floor surface is detected in the center of the screen of the touch panel display 11 in step S501, the measurement processing unit 131 confirms whether or not the camera 12 faces any surface of the virtual object MO for measurement. (S502) If it is determined that the objects are facing each other, the process proceeds to step S504 described later to perform a second autofit process, and if not, the process returns to step S501 described above and loops.

このとき、測定処理部131において、カメラ12が測定用仮想オブジェクトMOのいずれかの面と正対しているか否かを判断する処理については、第2のオートフィット処理(上述のステップS405の処理)と同様の処理を適用することができるため、詳しい説明を省略する。 At this time, regarding the process of determining whether or not the camera 12 faces any surface of the measurement virtual object MO in the measurement processing unit 131, the second autofit process (process of step S405 described above). Since the same processing as in the above can be applied, detailed description thereof will be omitted.

(B−2)第2の実施形態の効果
第2の実施形態によれば、以下のような効果を奏することができる。
(B-2) Effect of Second Embodiment According to the second embodiment, the following effects can be obtained.

第2の実施形態の測定装置10(測定処理部131)では、オートフィット処理に対応することで、ユーザの操作負担を軽減させることができる。 The measuring device 10 (measurement processing unit 131) of the second embodiment can reduce the operational burden on the user by supporting the autofit processing.

また、第2の実施形態の測定装置10(測定処理部131)では、第1〜第3のオートフィットモードのいずれかを適用することで、上述したそれぞれのオートフィットモードのメリットを発生させることができる。 Further, in the measuring device 10 (measurement processing unit 131) of the second embodiment, by applying any of the first to third autofit modes, the merits of each of the above-mentioned autofit modes can be generated. Can be done.

(C)他の実施形態
本発明は、上記の各実施形態に限定されるものではなく、以下に例示するような変形実施形態も挙げることができる。
(C) Other Embodiments The present invention is not limited to each of the above embodiments, and modified embodiments as illustrated below can also be mentioned.

(C−1)上記の実施形態では、測定装置10は、操作手段及び表示手段として、タッチパネルディスプレイ11を備えているが、他のデバイスを用いるようにしてもよい。例えば、表示手段としてディスプレイを適用し、操作手段としてトラックパッドやマウス等の種々のポインティングデバイスを適用するようにしてもよい。 (C-1) In the above embodiment, the measuring device 10 includes the touch panel display 11 as the operating means and the display means, but other devices may be used. For example, a display may be applied as a display means, and various pointing devices such as a trackpad and a mouse may be applied as an operation means.

(C−2)上記の実施形態では、被測定物TOは平面(例えば、床面F)に載置されているが、被測定物TOは平面に載置されていない物体(例えば、空中に浮かんでいる物体)であってもよい。 (C-2) In the above embodiment, the object to be measured TO is placed on a flat surface (for example, the floor surface F), but the object to be measured TO is placed on an object not placed on the flat surface (for example, in the air). It may be a floating object).

また、上記の実施形態では、説明を簡易とするため被測定物TOの形状を直方体の段ボール箱等としたが、被測定物TOの形状は直方体に限定されず他の形状(例えば、ソファや地球儀等)であってもよいことは当然である。 Further, in the above embodiment, the shape of the object to be measured TO is a rectangular parallelepiped cardboard box or the like for simplification of explanation, but the shape of the object to be measured TO is not limited to the rectangular parallelepiped and other shapes (for example, a sofa or the like). Of course, it may be a globe, etc.).

(C−3)上記の各実施形態では、測定用仮想オブジェクトMOの各面上にコライダーを設ける構成となっていたが、図39〜図42に示すように、測定用仮想オブジェクトMOの各辺の周囲に、所定の断面形状のコライダーを設けるようにしてもよい。ここで、各辺に対応するコライダーの長さ(対応する辺の方向の寸法)やコライダーの断面の形状については限定されないものであるが、測定用仮想オブジェクトMOの形状(各寸法)に応じた(比例した)寸法としてもよい。この実施形態では、コライダーの断面は、測定用仮想オブジェクトMOの形状(各寸法)に応じた(比例した)寸法の矩形であるものとして説明するが、コライダーの断面は、円形等の他の形状であってもよい。 (C-3) In each of the above embodiments, the collider is provided on each surface of the measurement virtual object MO, but as shown in FIGS. 39 to 42, each of the measurement virtual object MOs is provided. A collider having a predetermined cross-sectional shape may be provided around the side. Here, the length of the collider corresponding to each side (dimension in the direction of the corresponding side) and the shape of the cross section of the collider are not limited, but the shape of the virtual object MO for measurement (each dimension) is not limited. It may be a corresponding (proportional) dimension. In this embodiment, the cross section of the collider is described as being a rectangle having (proportional) dimensions corresponding to the shape (each dimension) of the virtual object MO for measurement, but the cross section of the collider is circular or the like. It may be in the shape of.

なお、以下では、図39〜図42に示す変形例を「本変形例」と呼ぶものとする。 In the following, the modified examples shown in FIGS. 39 to 42 will be referred to as "this modified example".

本変形例では、辺S_UF、S_UB、S_UL、S_UR、S_FL、S_FR、S_BL、S_BR、S_SF、S_SB、S_SL、S_SRに対応するコライダーを、それぞれC_UF、C_UB、C_UL、C_UR、C_FL、C_FR、C_BL、C_BR、C_SF、C_SB、C_SL、C_SRと呼ぶものとする。 In this modification, the colliders corresponding to the sides S_UF, S_UB, S_UL, S_UR, S_FL, S_FR, S_BL, S_BR, S_SF, S_SB, S_SL, and S_SR are colliders corresponding to C_UF, C_UB, C_UL, C_UR, C_FL, and C_FR, respectively. , C_BR, C_SF, C_SB, C_SL, C_SR.

図39、図40では、辺S_FRの周囲に配置されたコライダーC_FRの構成について示した図である。図39、図40では説明を簡易とするためコライダーC_FR以外のコライダーの図示を省略している。 39 and 40 are views showing the configuration of the collider C_FR arranged around the side S_FR. In FIGS. 39 and 40, the illustration of colliders other than the collider C_FR is omitted for the sake of simplicity.

図39は、測定用仮想オブジェクトMOを正面FFの側から見た場合の図(斜視図)であり、図40は測定用仮想オブジェクトMOを上面FFの方から見た場合の図(上面図)となっている。 FIG. 39 is a view (top view) when the measurement virtual object MO is viewed from the front FF side, and FIG. 40 is a view (top view) when the measurement virtual object MO is viewed from the top surface FF. It has become.

図39、図40に示すように、コライダーC_FRは、対応する辺S_FRを中心軸とする棒形状(断面が矩形の棒形状)のオブジェクトとなっている。図39、図40では、コライダーC_FRの高さ方向の寸法をLCH、幅方向の寸法をLCW、奥行方向の寸法をLCDと図示している。 As shown in FIGS. 39 and 40, the collider C_FR is a rod-shaped object (a rod shape having a rectangular cross section) centered on the corresponding side S_FR. In FIGS. 39 and 40, the height direction of the collider C_FR is shown as LCH, the width direction is shown as LCW, and the depth direction is shown as LCD.

図39、図40に示すように、コライダーC_FRは、辺S_FRの両端の部分(すなわち頂点の周辺)は除外して設置されている。これは、測定処理部131について、操作性の向上やプログラミングの単純化(プログラミングコストの低減)を目的とし、一度の操作で測定用仮想オブジェクトMOに係る3つの寸法(幅LW、高さLH、奥行LD)のうち、1つの寸法だけの操作を受け付けることを容易とするための措置である。例えば、測定用仮想オブジェクトMOにおいて、頂点部分のドラッグ操作(頂点の移動操作)を受け付けると、実装の仕方によっては、ユーザの思い通りに変形せず、かえって形状を被測定物画像GTにフィットさせる操作が難しくなる場合がある。 As shown in FIGS. 39 and 40, the collider C_FR is installed excluding the portions at both ends of the side S_FR (that is, the periphery of the apex). This is for the purpose of improving operability and simplifying programming (reducing programming cost) of the measurement processing unit 131, and has three dimensions (width LW, height LH, and height LH) related to the measurement virtual object MO in one operation. This is a measure for facilitating the acceptance of operations for only one dimension of the depth LD). For example, in the virtual object MO for measurement, when a drag operation (vertex movement operation) of the vertex portion is accepted, the shape is not deformed as desired by the user depending on the mounting method, but rather the shape is fitted to the image GT of the object to be measured. May be difficult.

そのため、上述の通り、各辺のコライダーは両端の部分は除外して設置されている。各辺について、設置するコライダーの長さは限定されないものであるが、例えば、対応する辺の80%程度の長さとしてもよい。この場合、当該辺の両端にそれぞれ当該辺の10%程度の長さの空隙(コライダーが設置されない区間)が発生することになる。 Therefore, as described above, the colliders on each side are installed excluding the parts at both ends. The length of the collider to be installed on each side is not limited, but may be, for example, about 80% of the length of the corresponding side. In this case, gaps (sections in which colliders are not installed) having a length of about 10% of the sides are generated at both ends of the sides.

また、各辺について、設置するコライダーの断面の寸法については限定されないものであるが、それぞれ並行となる辺に応じた寸法としてもよい。例えば、コライダーの断面の寸法については、それぞれ並行となる辺の10%程度の寸法としてもよい。具体的には、例えば、図39、図40に示すコライダーC_FRは、高さ方向の辺であるため、高さ方向の寸法LCHが寸法LHの80%、幅方向の寸法LCWが寸法LWの10%、奥行方向の寸法が寸法LCDの10%となっている。 Further, the dimensions of the cross section of the collider to be installed are not limited for each side, but the dimensions may be set according to the sides parallel to each other. For example, the cross-sectional dimensions of the collider may be about 10% of the parallel sides. Specifically, for example, since the collider C_FR shown in FIGS. 39 and 40 is a side in the height direction, the dimension LCH in the height direction is 80% of the dimension LH, and the dimension LCW in the width direction is the dimension LW. The dimension in the depth direction is 10%, which is 10% of the dimension LCD.

次に、本変形例における寸法変更処理について説明する。 Next, the dimension change processing in this modification will be described.

本変形例のフィッティング処理画面において、測定用仮想オブジェクトMOのいずれかのコライダーで、1点のタッチ(1本指)によるドラッグ操作が発生した場合(タッチされた位置からレイを飛ばしていずれかのコライダーで衝突が発生した場合)、測定処理部131は、当該コライダーに隣接する2つの面のいずれかを選択し、選択した面と直交する方向の寸法について、当該ドラッグ操作の方向(指を滑られた方向)に、当該ドラッグ操作の距離(指を滑らせた距離)に応じた分寸法を変更させる処理を行う。言い換えると、測定処理部131は、当該コライダーに隣接する2つの面のいずれかを選択し、選択した面を当該面と直交する方向(法線方向又は法線方向と逆の方向)に移動させる処理を行うことになる。 On the fitting processing screen of this modification, when a drag operation by touching one point (one finger) occurs on any collider of the virtual object MO for measurement (a ray is skipped from the touched position and either one). When a collision occurs in the collider), the measurement processing unit 131 selects one of the two surfaces adjacent to the collider, and the direction of the drag operation (with respect to the dimension in the direction orthogonal to the selected surface). A process is performed in which the dimension is changed according to the drag operation distance (distance in which the finger is slid) in the direction in which the finger is slid. In other words, the measurement processing unit 131 selects one of the two surfaces adjacent to the collider and moves the selected surface in the direction orthogonal to the surface (normal direction or direction opposite to the normal direction). Will be processed.

本変形例のフィッティング処理画面において、コライダーがドラッグ操作された場合、当該コライダーに隣接する2面のうち、ユーザがいずれの面に対応する寸法を変更しようとしているかを検討する。この実施形態では、ユーザは現在のカメラ視点から見て、手前側に写っている方の面(より正対している方の面)に対応する寸法を変更しようとしていると推定するものとする。 In the fitting processing screen of this modification, when the collider is dragged, it is examined which of the two surfaces adjacent to the collider the user intends to change the dimension corresponding to. In this embodiment, it is presumed that the user is trying to change the dimension corresponding to the side in the foreground (the side facing more) when viewed from the current camera viewpoint.

いずれかのコライダーが操作された場合、当該コライダーと隣接する第1の面と第2の面のうち、カメラ視点から見て手前側の面を認識する方法は限定されないものである。 When any of the colliders is operated, the method of recognizing the front side of the first surface and the second surface adjacent to the collider when viewed from the camera viewpoint is not limited.

例えば、測定処理部131は、現在のカメラ視点(例えば、カメラ12のカメラモデル上の原点/タッチパネルディスプレイ11の中心点)から、操作されたコライダーに対応する辺上の任意の位置(ここでは、当該辺の中間点であるものとする)へレイを飛ばした場合に、当該レイと第1の面の延長線との成す角度(以下、「角度θ1」と呼ぶ)と、当該レイと第2の面の延長線との成す角度(以下、「角度θ2」と呼ぶ)を比較し、より大きい角度に対応する面を、手前に存在する面と認識して選択する(以下、この選択した面を「選択面」と呼ぶ)ようにしてもよい。 For example, the measurement processing unit 131 may perform an arbitrary position (here, here) on the side corresponding to the operated collider from the current camera viewpoint (for example, the origin on the camera model of the camera 12 / the center point of the touch panel display 11). , Which is the midpoint of the side), the angle formed by the ray and the extension line of the first surface (hereinafter referred to as "angle θ1"), and the ray and the first The angles formed by the extension lines of the two surfaces (hereinafter referred to as "angle θ2") are compared, and the surface corresponding to the larger angle is recognized as the surface existing in the foreground and selected (hereinafter, this selection is performed). The surface may be referred to as a "selected surface").

図41は、測定処理部131が、フィッティング処理画面において寸法変更処理が行われる際の画面遷移の例について示した図である。 FIG. 41 is a diagram showing an example of screen transition when the measurement processing unit 131 performs the dimension change processing on the fitting processing screen.

図41は、測定用仮想オブジェクトMOについて、幅方向の寸法LW、高さ方向の寸法LH、奥行方向の寸法LDについて寸法変更処理が行われた場合の画面遷移について示している。 FIG. 41 shows the screen transition of the measurement virtual object MO when the dimension change processing is performed for the dimension LW in the width direction, the dimension LH in the height direction, and the dimension LD in the depth direction.

そして、図41(a)は寸法変更処理の前のフィッティング処理画面の状態について示しており、図41(b)はユーザの手UHの操作に応じて寸法変更処理を行った後の状態について示している。 Then, FIG. 41 (a) shows the state of the fitting processing screen before the dimension change processing, and FIG. 41 (b) shows the state after the dimension change processing is performed according to the operation of the user's hand UH. ing.

まず、図41を用いて、幅方向の寸法LWを変更する際の寸法変更処理について説明する。図41では、面FFと面FRとの間の辺S_FRの周囲に配置されたコライダーC_FRがドラッグ操作された場合における寸法変更処理について示している。 First, the dimension change process when changing the dimension LW in the width direction will be described with reference to FIG. 41. FIG. 41 shows a dimension change process when the collider C_FR arranged around the side S_FR between the surface FF and the surface FR is dragged.

以下ではドラッグ操作されているコライダーを「操作コライダー」と呼び、操作コライダーに対応する辺を「操作辺」とも呼ぶものとする。 In the following, the collider being dragged is referred to as an "operation collider", and the side corresponding to the operation collider is also referred to as an "operation side".

図41(a)では、手前側に面FFが正対するカメラ視点で、コライダーC_FRがドラッグ操作されている。 In FIG. 41 (a), the collider C_FR is dragged from the camera viewpoint where the surface FF faces the front side.

このとき、第1の面を面FF、第2の面を面FRとして、角度θ1、θ2を算出した場合、図42に示すように、当該視点から見ると正面にあたる第1の面FFに対応する角度θ1よりも、当該視点から見ると側面に当たる第2の面FRに対応する角度θ2の方が大きくなる。 At this time, when the angles θ1 and θ2 are calculated with the first surface as the surface FF and the second surface as the surface FR, as shown in FIG. 42, it corresponds to the first surface FF which is the front surface when viewed from the viewpoint. The angle θ2 corresponding to the second surface FR corresponding to the side surface is larger than the angle θ1 to be formed when viewed from the viewpoint.

図42では、図41(a)におけるカメラ視点PEから辺S_FRレイ(PE−S_FR)を飛ばした場合に、当該レイを含む平面上での角度θ1、θ2を図示している。 FIG. 42 illustrates the angles θ1 and θ2 on the plane including the ray when the side S_FR ray (PE-S_FR) is skipped from the camera viewpoint PE in FIG. 41 (a).

したがって、図41(a)(図42)の例では角度θ1、θ2との比較から、測定処理部131は、面FF(第1の面)と面FR(第2の面)のうち、面FRを選択面として選択し、選択面FRと直交する方向(幅方向)寸法LWについて、寸法変更処理を行うことになる。 Therefore, in the example of FIGS. 41A and 42, the measurement processing unit 131 has a surface of the surface FF (first surface) and the surface FR (second surface) from the comparison with the angles θ1 and θ2. FR is selected as the selection surface, and the dimension change processing is performed for the dimension LW in the direction (width direction) orthogonal to the selection surface FR.

コライダーC_FRが、操作辺S_FRを基準として、測定用仮想オブジェクトMOの中心位置(面FFの中心位置)から遠ざかる方向(図41(a)では+LW方向と図示)にドラッグ操作された場合、測定処理部131は、+LW方向に、当該ドラッグ操作の距離(+LW方向に指を滑らせた距離)に応じた分だけ測定用仮想オブジェクトMOの幅方向の寸法LWを増加させる寸法変更処理を行う。このとき、選択面FF上で操作辺S_FRと対向する辺S_FLの位置は固定したままとする。 When the collider C_FR is dragged in a direction away from the center position (center position of the surface FF) of the virtual object MO for measurement (shown as + LW direction in FIG. 41 (a)) with reference to the operation side S_FR, the measurement is performed. The processing unit 131 performs a dimension change process in which the dimension LW in the width direction of the measurement virtual object MO is increased by the distance corresponding to the drag operation distance (distance in which the finger is slid in the + LW direction) in the + LW direction. At this time, the position of the side S_FL facing the operation side S_FR on the selection surface FF remains fixed.

コライダーC_FRが、操作辺S_FRを基準として、測定用仮想オブジェクトMOの中心位置(面FFの中心位置)に近づく方向(図41(a)では−LW方向と図示)にドラッグ操作された場合、測定処理部131は、−LW方向に、当該ドラッグ操作の距離(−LW方向に指を滑らせた距離)に応じた分だけ測定用仮想オブジェクトMOの幅方向の寸法LWを減少させる寸法変更処理を行う。このときも、選択面FF上で操作辺S_FRと対向する辺S_FLの位置は固定したままとする。 When the collider C_FR is dragged in a direction approaching the center position (center position of the surface FF) of the virtual object MO for measurement (shown as the -LW direction in FIG. 41A) with reference to the operation side S_FR, The measurement processing unit 131 reduces the dimension LW in the width direction of the virtual object MO for measurement by the distance corresponding to the drag operation distance (distance in which the finger is slid in the −LW direction) in the −LW direction. I do. Also at this time, the position of the side S_FL facing the operation side S_FR on the selection surface FF remains fixed.

言い換えると、この場合、コライダーC_FRは、測定用仮想オブジェクトMOの幅方向の寸法LWを変動させるスライダーとして機能しているともいえる。 In other words, in this case, it can be said that the collider C_FR functions as a slider that fluctuates the dimension LW in the width direction of the virtual object MO for measurement.

そして、ここでは、図41(b)に示すように、コライダーC_FRが、−LW方向に被測定物画像GTの右端の位置までドラッグ操作され、測定用仮想オブジェクトMOの幅方向の寸法LWが被測定物TO(被測定物画像GT)と一致した状態となったことを示している。 Then, here, as shown in FIG. 41 (b), the collider C_FR is dragged in the −LW direction to the position at the right end of the image GT to be measured, and the dimension LW in the width direction of the virtual object MO for measurement is increased. It shows that the state is in agreement with the measured object TO (measured object image GT).

10…測定装置、11…タッチパネルディスプレイ、12…カメラ、13…制御部、131…測定処理部、131a…AR処理部、及び14…センサ部。 10 ... Measuring device, 11 ... Touch panel display, 12 ... Camera, 13 ... Control unit, 131 ... Measurement processing unit, 131a ... AR processing unit, and 14 ... Sensor unit.

Claims (5)

撮像手段と、表示手段とを備える測定装置において、
被測定物が配置された現実空間の座標系と紐づけられた直方体形状の測定用仮想オブジェクトを生成し、前記撮像手段で撮像された撮像画像に前記測定用仮想オブジェクトの画像を合成して前記表示手段の画面に表示させる拡張現実処理手段と、
前記測定用仮想オブジェクトの編集を行うオブジェクト編集手段と、
現在の前記測定用仮想オブジェクトの形状に関する測定パラメータを取得して出力する測定パラメータ出力手段とを有し
前記オブジェクト編集手段は、前記被測定物で前記撮像手段の光軸が当接する面を目標面として認識し、前記目標面のいずれかの位置を目標点として決定し、前記測定用仮想オブジェクト上で前記目標面と最も向きの近い面を対象面として決定し、前記対象面が前記目標点に近づく方向に移動するように、前記測定用仮想オブジェクトの前記対象面の法線方向の寸法を調整する
ことを特徴とする測定装置。
In a measuring device including an imaging means and a display means,
A virtual object for measurement of a rectangular shape associated with a coordinate system in the real space in which the object to be measured is arranged is generated, and an image of the virtual object for measurement is synthesized with an image captured by the imaging means. Augmented reality processing means to be displayed on the screen of the display means,
An object editing means for editing the virtual object for measurement and
The object editing means has a measurement parameter output means for acquiring and outputting measurement parameters related to the current shape of the virtual object for measurement, and the object editing means targets a surface of the object to be measured with which the optical axis of the imaging means abuts. The target surface is determined as a target point, the surface closest to the target surface is determined as the target surface on the measurement virtual object, and the target surface is set as the target point. A measuring device characterized in that the dimension of the target surface of the virtual object for measurement in the normal direction is adjusted so as to move in an approaching direction.
前記オブジェクト編集手段は、前記オブジェクト編集手段により編集された1又は複数の前記測定用仮想オブジェクトと、それぞれの前記測定用仮想オブジェクトに対応する前記被測定物を収納するための収納庫に対応する収納庫オブジェクトとを表示し、それぞれの前記測定用仮想オブジェクトを前記収納庫オブジェクトの内部に収容かのうであるか否かを確認可能なシミュレーション画面を提供するシミュレーション提供手段をさらに備えることを特徴とする請求項1に記載の測定装置。 The object editing means is a storage corresponding to one or a plurality of the measurement virtual objects edited by the object editing means and a storage for storing the measurement object corresponding to each of the measurement virtual objects. A claim further comprising a simulation providing means for displaying a storage object and providing a simulation screen capable of confirming whether or not each of the measurement virtual objects is housed inside the storage object. Item 1. The measuring device according to item 1. 前記測定パラメータ出力手段は、前記測定パラメータとして、前記測定用仮想オブジェクトが前記現実空間に存在した場合における高さ、幅、奥行、体積のうち1以上の値を出力する
ことを特徴とする請求項1又は2に記載の測定装置。
The measurement parameter output means is characterized in that, as the measurement parameter, one or more values of height, width, depth, and volume when the virtual object for measurement exists in the real space are output. The measuring device according to 1 or 2.
撮像手段と、表示手段とを備える測定装置に搭載されたコンピュータを、
被測定物が配置された現実空間の座標系と紐づけられた直方体形状の測定用仮想オブジェクトを生成し、前記撮像手段で撮像された撮像画像に前記測定用仮想オブジェクトの画像を合成して前記表示手段の画面に表示させる拡張現実処理手段と、
前記測定用仮想オブジェクトの編集を行うオブジェクト編集手段と、
現在の前記測定用仮想オブジェクトの形状に関する測定パラメータを取得して出力する測定パラメータ出力手段として機能させ、
前記オブジェクト編集手段は、前記被測定物で前記撮像手段の光軸が当接する面を目標面として認識し、前記目標面のいずれかの位置を目標点として決定し、前記測定用仮想オブジェクト上で前記目標面と最も向きの近い面を対象面として決定し、前記対象面が前記目標点に近づく方向に移動するように、前記測定用仮想オブジェクトの前記対象面の法線方向の寸法を調整する
ことを特徴とする測定プログラム。
A computer mounted on a measuring device including an imaging means and a display means.
A virtual object for measurement of a rectangular shape associated with a coordinate system in the real space in which the object to be measured is arranged is generated, and an image of the virtual object for measurement is synthesized with an image captured by the imaging means. Augmented reality processing means to be displayed on the screen of the display means,
An object editing means for editing the virtual object for measurement and
It functions as a measurement parameter output means that acquires and outputs measurement parameters related to the shape of the current measurement virtual object.
The object editing means recognizes a surface of the object to be measured that the optical axis of the imaging means abuts as a target surface, determines any position of the target surface as a target point, and determines the position of the target surface as a target point on the virtual object for measurement. The surface closest to the target surface is determined as the target surface, and the normal dimension of the target surface of the virtual object for measurement is adjusted so that the target surface moves in the direction approaching the target point. A measurement program characterized by that.
測定装置が行う測定方法において、
前記測定装置は、撮像手段、表示手段、拡張現実処理手段、オブジェクト編集手段、及び測定パラメータ出力手段とを備え、
前記拡張現実処理手段は、被測定物が配置された現実空間の座標系と紐づけられた直方体形状の測定用仮想オブジェクトを生成し、前記撮像手段で撮像された撮像画像に前記測定用仮想オブジェクトの画像を合成して前記表示手段の画面に表示させ、
前記オブジェクト編集手段は、前記測定用仮想オブジェクトの編集を行い、
前記測定パラメータ出力手段は、現在の前記測定用仮想オブジェクトの形状に関する測定パラメータを取得して出力し、
前記オブジェクト編集手段は、前記被測定物で前記撮像手段の光軸が当接する面を目標面として認識し、前記目標面のいずれかの位置を目標点として決定し、前記測定用仮想オブジェクト上で前記目標面と最も向きの近い面を対象面として決定し、前記対象面が前記目標点に近づく方向に移動するように、前記測定用仮想オブジェクトの前記対象面の法線方向の寸法を調整する
ことを特徴とする測定方法。
In the measuring method performed by the measuring device
The measuring device includes an imaging means, a display means, an augmented reality processing means, an object editing means, and a measurement parameter output means.
The augmented reality processing means generates a virtual object for measurement of a rectangular shape associated with a coordinate system in the real space in which the object to be measured is arranged, and the virtual object for measurement is added to an image captured by the imaging means. The images of are combined and displayed on the screen of the display means.
The object editing means edits the virtual object for measurement, and the object editing means edits the virtual object for measurement.
The measurement parameter output means acquires and outputs measurement parameters related to the current shape of the measurement virtual object, and outputs the measurement parameters.
The object editing means recognizes a surface of the object to be measured that the optical axis of the imaging means abuts as a target surface, determines any position of the target surface as a target point, and determines the position of the target surface as a target point on the virtual object for measurement. The surface closest to the target surface is determined as the target surface, and the normal dimension of the target surface of the virtual object for measurement is adjusted so that the target surface moves in the direction approaching the target point. A measurement method characterized by that.
JP2020213828A 2020-05-08 2020-12-23 Measuring device, measuring program and measuring method Active JP6867071B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020213828A JP6867071B1 (en) 2020-05-08 2020-12-23 Measuring device, measuring program and measuring method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020082643A JP6821222B1 (en) 2020-05-08 2020-05-08 Measuring device, measuring program and measuring method
JP2020213828A JP6867071B1 (en) 2020-05-08 2020-12-23 Measuring device, measuring program and measuring method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020082643A Division JP6821222B1 (en) 2020-05-08 2020-05-08 Measuring device, measuring program and measuring method

Publications (2)

Publication Number Publication Date
JP6867071B1 JP6867071B1 (en) 2021-04-28
JP2021177162A true JP2021177162A (en) 2021-11-11

Family

ID=75638907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020213828A Active JP6867071B1 (en) 2020-05-08 2020-12-23 Measuring device, measuring program and measuring method

Country Status (1)

Country Link
JP (1) JP6867071B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2546806A2 (en) * 2011-07-11 2013-01-16 Deutsche Telekom AG Image based rendering for AR - enabling user generation of 3D content
WO2017134886A1 (en) * 2016-02-02 2017-08-10 ソニー株式会社 Information processing device, information processing method, and recording medium
US20180018820A1 (en) * 2012-05-04 2018-01-18 Intermec Ip Corp. Volume dimensioning systems and methods
KR101918168B1 (en) * 2017-10-16 2018-11-14 삼성에스디에스 주식회사 Method for performing 3D measurement and Apparatus thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2546806A2 (en) * 2011-07-11 2013-01-16 Deutsche Telekom AG Image based rendering for AR - enabling user generation of 3D content
US20180018820A1 (en) * 2012-05-04 2018-01-18 Intermec Ip Corp. Volume dimensioning systems and methods
WO2017134886A1 (en) * 2016-02-02 2017-08-10 ソニー株式会社 Information processing device, information processing method, and recording medium
KR101918168B1 (en) * 2017-10-16 2018-11-14 삼성에스디에스 주식회사 Method for performing 3D measurement and Apparatus thereof

Also Published As

Publication number Publication date
JP6867071B1 (en) 2021-04-28

Similar Documents

Publication Publication Date Title
US10789776B2 (en) Structural modeling using depth sensors
KR101993920B1 (en) Method and apparatus for representing physical scene
JP4341723B2 (en) Light projection device, lighting device
US10363664B2 (en) Information processing apparatus, information processing method, and recording medium
US7295220B2 (en) Interactive system and method
US20050276444A1 (en) Interactive system and method
US7420556B2 (en) Information processing method and information processing apparatus
US20180013957A1 (en) Image display system, information processing apparatus, image display method, image display program, image processing apparatus, image processing method, and image processing program
US20120105446A1 (en) Building controllable clairvoyance device in virtual world
US20020186217A1 (en) Three-dimensional model display program and three-dimensional model display apparatus
KR20150076119A (en) Diminished reality
US10180735B1 (en) Navigation methods for three dimensional (3D) models in mixed reality (MR) environments
US20190080495A1 (en) Method, system and apparatus for navigating a virtual camera using a navigation device
JP6867071B1 (en) Measuring device, measuring program and measuring method
JP6867070B1 (en) Measuring device, measuring program and measuring method
JP6821222B1 (en) Measuring device, measuring program and measuring method
JP6980802B2 (en) Methods, equipment and computer programs to provide augmented reality
JP5381208B2 (en) No entry space analysis program, no entry space analysis device, and no entry space analysis method
CN110827412A (en) Method, apparatus and computer-readable storage medium for adapting a plane
JP2021124433A (en) Measurement device, measurement program and measurement method
CN104094213A (en) Information processing device, information processing method, program, and information storage medium
US20210278954A1 (en) Projecting inputs to three-dimensional object representations
KR102392675B1 (en) Interfacing method for 3d sketch and apparatus thereof
JP3651476B2 (en) Disassembled assembly drawing creation apparatus and method
Asiminidis Augmented and Virtual Reality: Extensive Review

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201223

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210401

R150 Certificate of patent or registration of utility model

Ref document number: 6867071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150