JP2020067393A - Three-dimensional modeling data generation device - Google Patents

Three-dimensional modeling data generation device Download PDF

Info

Publication number
JP2020067393A
JP2020067393A JP2018200800A JP2018200800A JP2020067393A JP 2020067393 A JP2020067393 A JP 2020067393A JP 2018200800 A JP2018200800 A JP 2018200800A JP 2018200800 A JP2018200800 A JP 2018200800A JP 2020067393 A JP2020067393 A JP 2020067393A
Authority
JP
Japan
Prior art keywords
subject
modeling data
sensor
dimensional modeling
scanner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018200800A
Other languages
Japanese (ja)
Other versions
JP2020067393A5 (en
Inventor
夢▲せん▼ 許
Meng Sen Xu
夢▲せん▼ 許
道明 後藤
Michiaki Goto
道明 後藤
道久 井口
Michihisa Iguchi
道久 井口
幸久 楠田
Yukihisa Kusuda
幸久 楠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VRC Inc
Original Assignee
VRC Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by VRC Inc filed Critical VRC Inc
Priority to JP2018200800A priority Critical patent/JP2020067393A/en
Publication of JP2020067393A publication Critical patent/JP2020067393A/en
Publication of JP2020067393A5 publication Critical patent/JP2020067393A5/en
Priority to JP2022048609A priority patent/JP2022089846A/en
Pending legal-status Critical Current

Links

Abstract

To provide a three-dimensional modeling data generation device which can be installed in a saved space.SOLUTION: A three-dimensional modeling data generation device includes: a plurality of sensor groups which image a subject, each have an image sensor and a distance sensor, and in which a distance to each of the plurality of sensor groups from the center position is asymmetric when viewed from the vertical upper direction with respect to the center position of the assumed subject; and a computer device which generates three-dimensional modeling data indicating the three-dimensional model of the subject by using the image of the subject imaged by the image sensor and the distance to the subject obtained by the distance sensor.SELECTED DRAWING: Figure 5

Description

本発明は、三次元モデリングデータを生成する技術に関する。   The present invention relates to a technique for generating three-dimensional modeling data.

三次元モデリングデータを生成する技術(いわゆる3Dスキャナ)が知られている。例えば特許文献1には、構造体(フレーム)に取り付けられたセンサー群(カメラ)を回転させながら被写体を撮影して得られた画像を用いて三次元モデリングデータを生成する装置が記載されている。   A technique for generating three-dimensional modeling data (so-called 3D scanner) is known. For example, Patent Document 1 describes a device that generates three-dimensional modeling data using an image obtained by photographing a subject while rotating a sensor group (camera) attached to a structure (frame). .

特開2018−44812号公報JP, 2008-44812, A

特許文献1に記載の装置においては、被写体を撮影する際にセンサー群を回転させるため装置全体が大型化してしまうという問題があった。   The device described in Patent Document 1 has a problem that the size of the entire device is increased because the sensor group is rotated when the subject is photographed.

これに対し本発明は、より省スペースで設置できる三次元モデリングデータ生成装置を提供する。   On the other hand, the present invention provides a three-dimensional modeling data generation device that can be installed in a smaller space.

本発明は、被写体を撮影するための複数のセンサー群であって、各々が画像センサー及び距離センサーを含み、想定される被写体の中心位置に対して鉛直上方向から見たとき当該中心位置から当該複数のセンサー群の各々までの距離が非対称である複数のセンサー群と、前記画像センサーにより撮影された前記被写体の画像、及び前記距離センサーにより得られた当該被写体までの距離を用いて、当該被写体の三次元モデルを示す三次元モデリングデータを生成するコンピュータ装置とを有する三次元モデリングデータ生成装置を提供する。   The present invention is a plurality of sensor groups for photographing a subject, each including an image sensor and a distance sensor, and when viewed from a vertically upward direction with respect to an assumed center position of the subject, A plurality of sensor groups in which the distance to each of the plurality of sensor groups is asymmetric, an image of the subject captured by the image sensor, and the distance to the subject obtained by the distance sensor, the subject And a computer device for generating three-dimensional modeling data indicating the three-dimensional model of 1.

前記鉛直上方向から見たとき前記複数のセンサー群の外接楕円の扁平率が0より大きくてもよい。   The flatness of the circumscribed ellipse of the plurality of sensor groups may be larger than 0 when viewed from the vertically upper direction.

この三次元モデリングデータ生成装置は、前記外接楕円の短半径近傍に配置され、前記コンピュータ装置から出力される画像を表示する表示装置を有してもよい。   The three-dimensional modeling data generation device may include a display device which is arranged in the vicinity of the short radius of the circumscribing ellipse and which displays an image output from the computer device.

前記表示装置は、前記三次元モデルをプレビュー表示してもよい。   The display device may display a preview of the three-dimensional model.

前記コンピュータ装置は、前記画像センサーを介してジェスチャ入力された指示に応じた処理を行ってもよい。   The computer device may perform a process in accordance with an instruction input via the image sensor.

前記指示が、前記被写体の撮影タイミングの指定を含み、前記コンピュータ装置は、前記画像センサーを介してジェスチャ入力された指示に応じたタイミングで前記画像センサーにより撮影された前記被写体の画像を用いて前記三次元モデリングデータを生成してもよい。   The instruction includes designation of shooting timing of the subject, and the computer apparatus uses the image of the subject captured by the image sensor at a timing according to the instruction input via the image sensor. Three-dimensional modeling data may be generated.

前記指示が、前記三次元モデルをプレビュー表示する際の視点の位置の指定を含み、前記表示装置は、前記画像センサーを介してジェスチャ入力された指示に応じて決定された位置の視点から、前記三次元をプレビュー表示してもよい。   The instruction includes designation of a position of a viewpoint at the time of preview-displaying the three-dimensional model, and the display device, from the viewpoint of a position determined according to the instruction input via the image sensor, A three-dimensional preview may be displayed.

この三次元モデリングデータ生成装置は、前記鉛直上方向から見て外縁が所定の形状のフレームを有し、前記複数のセンサー群は、前記フレームに取り付けられてもよい。   The three-dimensional modeling data generation device may have a frame whose outer edge has a predetermined shape when viewed from the vertically upward direction, and the plurality of sensor groups may be attached to the frame.

前記所定の形状が、正方形の一角を切り欠いた五角形、又は正方形の対向する二角を切り欠いた六角形であってもよい。   The predetermined shape may be a pentagon with one corner cut out of a square, or a hexagon with two opposite corners cut out of a square.

前記フレームは、前記切り欠かれた角に相当する辺に、前記被写体の出入口となる開口を有してもよい。   The frame may have an opening serving as a doorway for the subject on a side corresponding to the cutout corner.

本発明によれば、より省スペースで設置できる三次元モデリングデータ生成装置が得られる。   According to the present invention, a three-dimensional modeling data generation device that can be installed in a smaller space can be obtained.

一実施形態に係る3Dスキャナ1の外観を例示する図。The figure which illustrates the external appearance of the 3D scanner 1 which concerns on one Embodiment. 3Dスキャナ1のフレーム構造を例示する図。The figure which illustrates the frame structure of 3D scanner 1. パネルコンポーネント11の構造を例示する分解斜視図。FIG. 3 is an exploded perspective view illustrating the structure of the panel component 11. パネルコンポーネント13の構造を示す分解斜視図。FIG. 3 is an exploded perspective view showing the structure of the panel component 13. フレーム構造の上面視を示す図。The figure which shows the top view of a frame structure. 3Dスキャナ1の一実施形態に係る機能構成を例示する図。FIG. 3 is a diagram illustrating a functional configuration according to an embodiment of the 3D scanner 1. 3Dスキャナ1の動作を例示するフローチャート。6 is a flowchart illustrating the operation of the 3D scanner 1. モニター18に表示されるサービスメニューを例示する図。The figure which illustrates the service menu displayed on the monitor 18. モニター17に表示される画面を例示する図。The figure which illustrates the screen displayed on the monitor 17. データの生成後にモニター17に表示される画面を例示する図。The figure which illustrates the screen displayed on the monitor 17 after generation of data. 変形例に係る3Dスキャナ1のフレーム構造を例示する図。The figure which illustrates the frame structure of the 3D scanner 1 which concerns on a modification.

1.構造
図1は、一実施形態に係る3Dスキャナ1の外観を例示する図である。3Dスキャナ1は、被写体を撮影し、その被写体を三次元モデル化した三次元モデリングデータを生成する、三次元モデリングデータ生成装置である。3Dスキャナ1は、概ね、被写体を撮影するための撮影室(ブース又は空間)を形成する構造体、被写体を撮影するセンサー群、及びこれらのセンサー群により取得されたデータを用いて三次元モデリングデータを生成するコンピュータ装置を有する。各センサー群は、画像センサー及び距離センサーを含む。画像センサーは被写体を撮影し、これを空間的な単位(画素)毎に所定の色成分(例えばRGBの3色)の階調データ(画像データ)として出力する。距離センサーは、空間的な単位(画素)毎に被写体の表面までの距離を距離データとして出力する。画像センサーは被写体の色を、距離センサーは凹凸(表面形状)を測定するといえる。
1. Structure FIG. 1 is a diagram illustrating an appearance of a 3D scanner 1 according to an embodiment. The 3D scanner 1 is a three-dimensional modeling data generation device that photographs a subject and generates three-dimensional modeling data that is a three-dimensional model of the subject. The 3D scanner 1 generally uses a structure that forms a shooting room (booth or space) for shooting a subject, a group of sensors that shoot the subject, and three-dimensional modeling data using data acquired by these sensors. Has a computer device for generating. Each sensor group includes an image sensor and a distance sensor. The image sensor captures an image of a subject and outputs it as gradation data (image data) of a predetermined color component (for example, three colors of RGB) for each spatial unit (pixel). The distance sensor outputs the distance to the surface of the subject as distance data for each spatial unit (pixel). It can be said that the image sensor measures the color of the subject and the distance sensor measures the unevenness (surface shape).

図1では主に撮影室を形成する構造体を示している。この構造体は、棒状の部材で形成されるフレーム(枠体)、及びフレームに固定されるパネル(板材又は化粧板)を有する。フレームは、3Dスキャナ1に機械的な強度を与え、また、センサー群を固定するための構造体である。フレームは、例えば金属で形成される。パネルは、撮影中の被写体が外部から見えないようにするため、また、装置全体の美観を向上させるための板材ある。パネルは、例えば金属、樹脂、木材、紙、又はこれらの組み合わせで形成される。   FIG. 1 mainly shows a structure that forms an imaging room. This structure has a frame (frame body) formed of a rod-shaped member, and a panel (plate material or decorative plate) fixed to the frame. The frame is a structure for giving mechanical strength to the 3D scanner 1 and for fixing the sensor group. The frame is made of metal, for example. The panel is a plate material for preventing the subject being photographed from being seen from the outside and improving the aesthetic appearance of the entire apparatus. The panel is formed of, for example, metal, resin, wood, paper, or a combination thereof.

この例において、3Dスキャナ1は、床及び天井の無い構造を有する。このように、床及び天井の無い簡単な構造により、床及び天井を有する構造と比較して設置又は撤去が容易である。   In this example, the 3D scanner 1 has a structure without a floor and a ceiling. As described above, the simple structure without the floor and the ceiling is easier to install or remove as compared with the structure having the floor and the ceiling.

図2は、3Dスキャナ1のフレーム構造を例示する図である。3Dスキャナ1は、複数のパネルコンポーネント(パネルコンポーネント11、12、13、14、15、及び16)を含む。ここでは説明のため、これらのパネルコンポーネントが組み立て前の状態及び組み立て後の状態の2つの状態が同時に図示されている。パネルコンポーネントとは、パネル及びフレームを組み合わせた構造体をいう。本実施形態において、パネルコンポーネント11、12、13、14、及び15は、内面側及び外面側にそれぞれフレームが形成された二重構造を有する。隣り合う2つのパネルコンポーネントは、少なくとも1カ所において、ブラケット(固定用の部材)を用いて互いに固定されている。各パネルコンポーネントは、長方形のフレームと十字のフレームとを組み合わせた形状を有する。フこれらのフレームは、それぞれ、パイプ同士又は棒材同士をボルト及びナットで、又は溶接で固定したものである。   FIG. 2 is a diagram illustrating a frame structure of the 3D scanner 1. The 3D scanner 1 includes a plurality of panel components (panel components 11, 12, 13, 14, 15, and 16). Here, for the sake of explanation, these panel components are shown in two states at the same time, a pre-assembled state and a post-assembled state. A panel component is a structure that combines a panel and a frame. In this embodiment, the panel components 11, 12, 13, 14, and 15 have a double structure in which a frame is formed on each of an inner surface side and an outer surface side. Two adjacent panel components are fixed to each other by using a bracket (fixing member) in at least one place. Each panel component has a shape combining a rectangular frame and a cross frame. These frames are obtained by fixing pipes or rods to each other with bolts and nuts or by welding.

パネルコンポーネント11には、センサータワー111及び112が取り付けられる。センサータワー111及び112はいずれも、複数のセンサー群が取り付けられる部材(棒材)である。同様に、パネルコンポーネント12、13、14、及び15は、センサータワー121及び122、131及び132、141及び142、並びに151及び152を有する。   Sensor towers 111 and 112 are attached to the panel component 11. Each of the sensor towers 111 and 112 is a member (bar material) to which a plurality of sensor groups are attached. Similarly, panel components 12, 13, 14, and 15 have sensor towers 121 and 122, 131 and 132, 141 and 142, and 151 and 152.

図4は、センサータワー111の構造を例示する図である。この例において、センサータワー111には、5個のセンサー群20が設置される。センサータワー111は、所定の位置(例えば上端及び下端)においてパネルコンポーネント11に固定される。センサータワー111以外の他のセンサータワーも同様である。   FIG. 4 is a diagram illustrating the structure of the sensor tower 111. In this example, the sensor tower 111 is provided with five sensor groups 20. The sensor tower 111 is fixed to the panel component 11 at predetermined positions (for example, upper and lower ends). The same applies to sensor towers other than the sensor tower 111.

このように、各パネルコンポーネントがパネル及びフレームの組み合わせで形成されているため、3Dスキャナ1は軽量であり、かつ、運搬、組み立て、及び分解が容易である。   Thus, since each panel component is formed by the combination of the panel and the frame, the 3D scanner 1 is lightweight and easy to carry, assemble, and disassemble.

図5は、フレーム構造の上面視を示す図である。上面視とは、想定される被写体の中心位置Cから鉛直上向きに移動した位置から見た(鉛直上方向から見た)図である。この例において、上面視は、撮影室の水平方向における中心C(フレームにより規定される外接矩形(正方形)の中心)から鉛直上向きに延びる軸上の、3Dスキャナ1よりも高い位置から3Dスキャナ1を見下ろしたときの形状をいう。この例では上面視において、3Dスキャナ1のフレーム構造の外形は、面積最小の外接矩形が正方形となる形状を有する。別の見方をすると、3Dスキャナ1のフレーム構造の外形は、正方形から1つの角を切り欠いた5角形の形状を有する。一例において、この正方形の一辺の長さは2.0〜2.5mである。また、3Dスキャナ1の高さは、2.0〜2.5m程度である。この例では、パネルコンポーネント11とパネルコンポーネント15との間が切り欠きに相当する。パネルコンポーネント11とパネルコンポーネント15との間には、フレーム16が設けられている。フレーム16は外形が長方形(パネルコンポーネント11及びパネルコンポーネント15よりも小さい)であり、一端がパネルコンポーネント11に、他端がパネルコンポーネント15に固定されている。フレーム16は、パネルコンポーネント11とパネルコンポーネント15との間の開口(空隙)のうち上部の一部のみに相当する位置に固定されており、この開口は被写体が3Dスキャナ1の撮影室に出入りするための出入口として機能する。   FIG. 5 is a diagram showing a top view of the frame structure. The top view is a view seen from a position vertically moved upward from the assumed center position C of the subject (viewed from the vertically upward direction). In this example, the top view shows the 3D scanner 1 from a position higher than the 3D scanner 1 on an axis extending vertically upward from the center C (center of the circumscribing rectangle (square) defined by the frame) in the horizontal direction of the imaging room. The shape when looking down. In this example, when viewed from the top, the outer shape of the frame structure of the 3D scanner 1 has a shape in which the circumscribed rectangle having the smallest area is a square. From another point of view, the outer shape of the frame structure of the 3D scanner 1 has a pentagonal shape in which one corner is cut out from a square. In one example, the length of one side of this square is 2.0-2.5 m. The height of the 3D scanner 1 is about 2.0 to 2.5 m. In this example, the gap between the panel component 11 and the panel component 15 corresponds to a notch. A frame 16 is provided between the panel component 11 and the panel component 15. The frame 16 has a rectangular outer shape (smaller than the panel components 11 and 15), and has one end fixed to the panel component 11 and the other end fixed to the panel component 15. The frame 16 is fixed to a position corresponding to only a part of the upper portion of the opening (gap) between the panel component 11 and the panel component 15, and the subject enters and leaves the imaging room of the 3D scanner 1 through this opening. Function as a gateway for

被写体については、パネルコンポーネント13と正対する向きが正面として想定される。パネルコンポーネント13は、出入口から撮影室に入ったときにちょうど正面となる方向なので、出入口との位置関係においてパネルコンポーネント13と正対する向きを正面とすることは合理的である。パネルコンポーネント13の内周側には、モニター17が設置されている。モニター17は、3Dスキャナ1のUIを提供するための表示装置である。モニター17に映像信号を供給する映像ソース(例えばコンピュータ装置)は、例えば、パネルコンポーネント13の空隙139内に設置される(コンピュータ装置は図示略)。   As for the subject, the direction facing the panel component 13 is assumed to be the front. Since the panel component 13 is in the front direction when entering the photographing room through the entrance, it is rational to position the panel component 13 in the front direction in the positional relationship with the entrance. A monitor 17 is installed on the inner peripheral side of the panel component 13. The monitor 17 is a display device for providing the UI of the 3D scanner 1. A video source (for example, a computer device) that supplies a video signal to the monitor 17 is installed, for example, in the space 139 of the panel component 13 (the computer device is not shown).

上面視において、撮影室の中心Cから見て8方向にセンサー群20が設置されている。この例において、複数(この例では8群)のセンサー群20の配置は、パネルコンポーネント13を含まない対角線Xの前後(パネルコンポーネント13側を前、フレーム16側を後とする)で非対称である。これは、パネルコンポーネント11とパネルコンポーネント15との間は空隙(出入口)になっているのでセンサー群20を取り付けられる構造体が存在しないところ、出入口と対称の位置にあるパネルコンポーネント13にはセンサー群20が設置されていることに起因する。パネルコンポーネント13は被写体の正面に相当するので、正面により近い位置にセンサー群20を配置するのは合理的である。なお、センサー群20の配置は、パネルコンポーネント13及び開口を含む対角線Y(フレームの外接矩形の対角線)について対称である(すなわち、対角線Xの左右(被写体が正面を向いたときの左右)対称)。   The sensor groups 20 are installed in eight directions when viewed from the center C of the imaging room in a top view. In this example, the arrangement of a plurality of (eight groups in this example) sensor groups 20 is asymmetric before and after the diagonal line X that does not include the panel component 13 (the panel component 13 side is the front and the frame 16 side is the rear). . This is because there is no space (doorway) between the panel component 11 and the panel component 15 so that there is no structure to which the sensor group 20 can be attached. However, the panel group 13 that is symmetrical to the doorway has a sensor group. 20 is installed. Since the panel component 13 corresponds to the front of the subject, it is rational to arrange the sensor group 20 at a position closer to the front. The arrangement of the sensor group 20 is symmetrical with respect to a diagonal line Y (diagonal line of the circumscribing rectangle of the frame) including the panel component 13 and the opening (that is, left and right of the diagonal line X (left and right when the subject faces the front)). .

3Dスキャナ1は、上面視において、外縁が所定の形状のフレーム(パネルコンポーネントとしてパネルと一体化しているものを含む)を有する。所定の形状は、例えば、多角形、より詳細には長方形又は正方形の一角を切り欠いた五角形である。ここでいう外縁は、外接多角形ということもできる。外接多角形は、パネルコンポーネントに外接し、かつ面積が最小となるものをいう。図5の例においては、パネルコンポーネントの外縁(=外接多角形)は五角形であり、これは外接矩形の一角を切り欠いたものである。   The 3D scanner 1 has a frame whose outer edge has a predetermined shape in a top view (including a frame which is integrated with a panel as a panel component). The predetermined shape is, for example, a polygon, more specifically, a rectangular or square pentagon with one corner cut out. The outer edge here can also be called a circumscribed polygon. The circumscribed polygon is one that circumscribes the panel component and has the smallest area. In the example of FIG. 5, the outer edge (= circumscribing polygon) of the panel component is a pentagon, which is a cutout of one corner of the circumscribing rectangle.

なおここでは上面視しか図示しないが、1群のセンサー群20は、画像センサー及び距離センサーの組を複数、含む。一例において、各センサー群20は、3〜6組の画像センサー及び距離センサーを含む。これら複数組の画像センサー及び距離センサーは、縦に配置されている。   Although only the top view is shown here, one sensor group 20 includes a plurality of sets of image sensors and distance sensors. In one example, each sensor group 20 includes 3-6 sets of image sensors and distance sensors. These plural sets of image sensors and distance sensors are arranged vertically.

また、上面視において、複数のセンサー群20は、撮影室の中心C(すなわち被写体の理想位置)から非等距離に配置される。撮影室に複数のセンサー群を設置して被写体を撮影する装置においては、撮影室又は撮影台の中心から等距離にセンサー群を配置することが考えられる。しかし、本実施形態に係るセンサー群20のうち中心Cとの距離が最短のもの(一例において80cm程度)と同程度の等距離に複数のセンサー群20を配置すると、撮影室は(上面視において)その最短距離と同程度の半径の円形となり、本願の3Dスキャナ1の撮影室と比較すると狭くなる。同様に、本実施形態に係るセンサー群20のうち中心Cとの距離が最長のもの(一例において100cm程度)と同程度の等距離に複数のセンサー群20を配置すると、撮影室は(上面視において)その最長距離と同程度の半径の円形となり、本願の3Dスキャナ1の撮影室と比較すると設置に必要なスペースが大きくなる。一般に撮影室が(上面視において)円形である場合、3Dスキャナ全体の(上面視における)形状は円形又は正n角形(n≧5)となることが多い。装置の外形が円形又は正n角形である場合、その外接矩形の角に相当するスペースは無駄になってしまうことが多い。これに対し本実施形態の3Dスキャナ1は、全体として直方体の一部を切り欠いた外形を有し、上面視において正方形の一部を切り欠いた外形を有しており、設置スペースの利用効率が優れている。また、円形又は正n角形の構造と比較するとフレーム構造を単純化できるので、製造及び組み立てのコストを低減することができる。   Further, in a top view, the plurality of sensor groups 20 are arranged at a non-equidistant distance from the center C of the photographing room (that is, the ideal position of the subject). In an apparatus for shooting a subject by installing a plurality of sensor groups in a shooting room, it is possible to arrange the sensor groups equidistant from the center of the shooting room or the shooting table. However, when a plurality of sensor groups 20 are arranged at the same distance as that of the sensor group 20 according to the present embodiment, which has the shortest distance from the center C (about 80 cm in one example), the imaging room becomes (in a top view) ) It becomes a circle having a radius similar to the shortest distance, and becomes narrower than the imaging room of the 3D scanner 1 of the present application. Similarly, when a plurality of sensor groups 20 are arranged at the same distance as that of the sensor group 20 according to the present embodiment that has the longest distance from the center C (about 100 cm in one example), the imaging room is In this case, the radius is approximately the same as the longest distance, and the space required for installation becomes large as compared with the imaging room of the 3D scanner 1 of the present application. In general, when the imaging room has a circular shape (when viewed from the top), the entire 3D scanner (when viewed from the top) is often a circular shape or a regular n-gon (n ≧ 5). When the external shape of the device is circular or regular n-sided, the space corresponding to the corner of the circumscribed rectangle is often wasted. On the other hand, the 3D scanner 1 according to the present embodiment has a shape in which a part of a rectangular parallelepiped is cut out as a whole, and a shape in which a part of a square is cut out in a top view. Is excellent. Further, since the frame structure can be simplified as compared with a circular or regular n-sided structure, manufacturing and assembly costs can be reduced.

また、3Dスキャナにおいては一般にカメラ(センサー)の位置が被写体に近すぎたり遠すぎたりするとうまく撮影できないところ、主要な被写体である人体(又は人体に近いもの)は扁平した(平たい)形状を有しており、この被写体の形状を利用してセンサー群20の非対称配置を実現している。また、人体を撮影する状況では多くの場合、顔を高画質で撮りたいという要求があるが、例えばパネルコンポーネント13にセンサー群20を高密度に配置することにより、顔を高画質で撮影することができる。   In addition, in a 3D scanner, in general, when the position of the camera (sensor) is too close to or far from the subject, the human body (or the one close to the human body), which is the main subject, has a flat (flat) shape. By using the shape of the subject, the sensor group 20 is asymmetrically arranged. Further, in many situations in which a human body is photographed, there is a demand to photograph a face with high image quality. For example, by arranging the sensor group 20 in the panel component 13 at high density, the face can be photographed with high image quality. You can

また、センサー群20の外接楕円Eは扁平しており、扁平率が0より大きい(一例においては0.2〜0.3)。モニター17は、この外接楕円Eの短半径近傍に配置されているということができる。   Further, the circumscribed ellipse E of the sensor group 20 is flat, and the flatness is greater than 0 (0.2 to 0.3 in one example). It can be said that the monitor 17 is arranged in the vicinity of the short radius of the circumscribed ellipse E.

さらに、3Dスキャナ1の外面(撮影室側でない方の面)には、モニター18が設置されている。モニター18の映像ソースは、例えば、モニター17の映像ソースと共通のコンピュータ装置である。あるいは、モニター18の映像ソースは、モニター17の映像ソースとは別の装置であってもよい。モニター18は、例えば、撮影室に入る前の客(ユーザ)に対し、待ち時間や注意事項の表示をするために用いられる。   Further, a monitor 18 is installed on the outer surface of the 3D scanner 1 (the surface not facing the imaging room). The video source of the monitor 18 is, for example, the same computer device as the video source of the monitor 17. Alternatively, the video source of the monitor 18 may be a device different from the video source of the monitor 17. The monitor 18 is used, for example, to display a waiting time and a caution for a customer (user) before entering the photographing room.

2.機能
図6は、3Dスキャナ1の一実施形態に係る機能構成を例示する図である。3Dスキャナ1は、撮影部101、処理部102、モデル生成部103、及びUI提供部104を有する。撮影部101は、被写体を撮影し、データとして出力する。図5等のセンサー群20は撮影部101に含まれる。処理部102は、撮影部101等から提供される各種のデータを処理する。処理部102が行う処理には、例えば後述するジェスチャの検出が含まれる。モデル生成部103は、センサー群20から出力される画像データを用いて、被写体の三次元モデリングデータを生成する。UI提供部104は、ユーザインターフェースを提供する。図5の説明で言及した、モニター17の映像ソースとして機能するコンピュータ装置(図示略)のプロセッサ及びメモリは、処理部102及びモデル生成部103の一例である。このプロセッサ及びメモリ、並びにモニター17及びモニター18はUI提供部104の一例である。
2. Function FIG. 6 is a diagram illustrating a functional configuration according to an embodiment of the 3D scanner 1. The 3D scanner 1 includes a photographing unit 101, a processing unit 102, a model generation unit 103, and a UI providing unit 104. The photographing unit 101 photographs a subject and outputs it as data. The sensor group 20 shown in FIG. 5 and the like is included in the imaging unit 101. The processing unit 102 processes various types of data provided by the image capturing unit 101 and the like. The processing performed by the processing unit 102 includes, for example, detection of a gesture described below. The model generation unit 103 uses the image data output from the sensor group 20 to generate three-dimensional modeling data of the subject. The UI providing unit 104 provides a user interface. The processor and the memory of the computer device (not shown) that functions as the video source of the monitor 17 mentioned in the description of FIG. 5 are examples of the processing unit 102 and the model generation unit 103. The processor and memory, the monitor 17 and the monitor 18 are examples of the UI providing unit 104.

この例において、撮影部101は、三次元モデリングデータの生成の指示を受け付ける前から、被写体の撮影を開始する。三次元モデリングデータ生成の前において、撮影部101は、ジェスチャ検知のために被写体を撮影する。すなわち、撮影室に入り撮影部101による撮影が開始されれば、被写体(ユーザ)は、ジェスチャ入力によりコンピュータ装置に対し指示を行うことができる。ジェスチャ入力による指示は、例えば、三次元モデリングデータ生成のための撮影開始の指示、生成された三次元モデリングデータを用いた三次元モデル表示の指示、及び撮影終了の指示を含む。   In this example, the photographing unit 101 starts photographing a subject before receiving an instruction to generate three-dimensional modeling data. Before generating the three-dimensional modeling data, the image capturing unit 101 captures an object for gesture detection. That is, when the shooting unit 101 starts shooting in the shooting room, the subject (user) can give an instruction to the computer apparatus by gesture input. The instruction by the gesture input includes, for example, an instruction to start shooting for generating three-dimensional modeling data, an instruction to display a three-dimensional model using the generated three-dimensional modeling data, and an instruction to end shooting.

3.動作
図7は、3Dスキャナ1の動作を例示するフローチャートである。より詳細には、図7は3Dスキャナ1に設置されているコンピュータ装置の動作を例示するフローチャートである。このコンピュータ装置には本願発明の動作に係るアプリケーションプログラムがインストールされており、図7のフローはコンピュータ装置のプロセッサがこのアプリケーションプログラムを実行することにより実施される。なお以下においては、記載を簡単にするため処理の主体を単に「3Dスキャナ1」とする。
3. Operation FIG. 7 is a flowchart illustrating the operation of the 3D scanner 1. More specifically, FIG. 7 is a flowchart illustrating the operation of the computer device installed in the 3D scanner 1. An application program relating to the operation of the present invention is installed in this computer device, and the flow of FIG. 7 is implemented by the processor of the computer device executing this application program. In the following, for simplicity of description, the subject of processing is simply “3D scanner 1”.

ステップS101において、3Dスキャナ1は、被写体が撮影室に入ったか判断する。一例において、3Dスキャナ1は人感センサーを有しており、この人感センサーの出力信号に基づいて被写体が撮影室に入ったことを検知する。あるいは、3Dスキャナ1において、撮影部101は電源が投入されている間、常に撮影室を撮影しており、この映像を解析することにより被写体が撮影室に入ったことを検知してもよい。被写体が撮影室に入ったことが検知された場合(S101:YES)、3Dスキャナ1は、処理をステップS102に移行する。被写体が撮影室に入ったことが検知されない場合(S101:NO)、3Dスキャナ1は、被写体が撮影室に入るまで待機する。   In step S101, the 3D scanner 1 determines whether the subject has entered the photographing room. In one example, the 3D scanner 1 has a motion sensor, and detects that a subject has entered the photographing room based on the output signal of the motion sensor. Alternatively, in the 3D scanner 1, the image capturing unit 101 may always capture an image of the image capturing room while the power is turned on, and by analyzing this image, it may be detected that the subject has entered the image capturing room. When it is detected that the subject has entered the photographing room (S101: YES), the 3D scanner 1 moves the process to step S102. When it is not detected that the subject has entered the shooting room (S101: NO), the 3D scanner 1 waits until the subject enters the shooting room.

ステップS102において、3Dスキャナ1は、ジェスチャ検知のため被写体の撮影を開始する。ステップS103において、3Dスキャナ1は、被写体が所定のジェスチャを行ったか判断する。3Dスキャナ1は、複数パターンのジェスチャを、それぞれ指示と対応付けて記憶している。例えば、「右手を頭の上に上げてから下まで下ろす」というジェスチャと「撮影開始」という指示、「両手を水平に上げる」というジェスチャと「3Dモデルを回転」という指示、及び「左手を頭の上に上げる」というジェスチャと「撮影終了」という指示が対応付けられている。被写体が所定のジェスチャを行ったと判断された場合(S103:YES)、3Dスキャナ1は、処理をステップS104に移行する。被写体が所定のジェスチャを行っていないと判断された場合(S103:NO)、3Dスキャナ1は、被写体が所定のジェスチャを行うまで待機する。   In step S102, the 3D scanner 1 starts photographing a subject for gesture detection. In step S103, the 3D scanner 1 determines whether the subject has made a predetermined gesture. The 3D scanner 1 stores gestures of a plurality of patterns in association with respective instructions. For example, the gesture of "raise your right hand above your head and lower it to the bottom" and the instruction to "start shooting", the gesture "to raise your hands horizontally" and the instruction to "rotate the 3D model", and "left hand to the head". The gesture of "raise up" is associated with the instruction of "end of shooting". When it is determined that the subject has made a predetermined gesture (S103: YES), the 3D scanner 1 moves the process to step S104. When it is determined that the subject does not perform the predetermined gesture (S103: NO), the 3D scanner 1 waits until the subject performs the predetermined gesture.

ステップS104において、3Dスキャナ1は、ジェスチャに応じた処理を行う。例えば、「撮影開始」が指示された場合、3Dスキャナ1は、3Dモデリングデータ生成のための撮影を開始する。「3Dモデルを回転」が指示された場合、3Dスキャナ1は、生成された3Dモデリングデータを用いて被写体の3Dモデルの画像をモニター17に表示し、画面内でこの3Dモデルを回転させる。「撮影終了」が指示された場合、3Dスキャナ1は、生成した3Dモデリングデータを出力するための処理を行う。   In step S104, the 3D scanner 1 performs processing according to the gesture. For example, when “start shooting” is instructed, the 3D scanner 1 starts shooting for generating 3D modeling data. When “Rotate 3D model” is instructed, the 3D scanner 1 displays an image of the 3D model of the subject on the monitor 17 using the generated 3D modeling data, and rotates the 3D model within the screen. When the “imaging end” is instructed, the 3D scanner 1 performs a process for outputting the generated 3D modeling data.

ステップS105において、3Dスキャナ1は、被写体が撮影室から出たか判断する。撮影室から出たことの検知方法は、被写体が撮影室に入ったことの検知方法と同様である。被写体が撮影室から出たことが検知された場合(S105:YES)、3Dスキャナ1は、処理をステップS101に移行する。被写体が撮影室から出たことが検知されない場合(S105:NO)、3Dスキャナ1は、処理をステップS102に移行する。   In step S105, the 3D scanner 1 determines whether the subject has left the photographing room. The method of detecting that the subject has left the shooting room is the same as the method of detecting that the subject has entered the shooting room. When it is detected that the subject has left the photographing room (S105: YES), the 3D scanner 1 moves the process to step S101. When it is not detected that the subject has left the photographing room (S105: NO), the 3D scanner 1 moves the process to step S102.

この例によれば、撮影部101により、撮影室(3D空間)において被写体の点群(位置座標)がどこを占めているか把握するためのセンサー群が形成されている。これらのセンサー群による被写体の3D空間のポーズ把握のための撮影を、ジェスチャ入力に用いることができる。被写体はモニター17により自身のポーズをほぼリアルタイムで確認することができるので、ポーズの最適化が容易である。この例によれば、最適なポーズを取るためのガイダンス(誘導)を容易に提供することができる。   According to this example, the imaging unit 101 forms a sensor group for grasping where the point group (positional coordinate) of the subject occupies in the imaging room (3D space). The photography for grasping the pose of the subject in the 3D space by these sensor groups can be used for the gesture input. Since the subject can check his / her own pose on the monitor 17 in almost real time, it is easy to optimize the pose. According to this example, it is possible to easily provide guidance (guidance) for taking an optimal pose.

また、この例によれば、3Dモデリングデータ生成のためのコンピュータ装置と別に、指示入力用の入力装置(ボタン等)を用いる例と比較して撮影室内のスペースを広くする(スペースを有効活用する)ことができる。また、例えばモニター17をタッチスクリーンとしてこのタッチスクリーンを介して撮影開始の指示を入力することも考えられるが、このような構成と比較しても、被写体が理想的な位置(中心C)から移動せずに指示を入力することができるという利点を有する。また、3Dスキャナ1は、撮影室内において被写体の表面形状及び色の情報を高い空間解像度で取得しているので、高精細なポーズを取ることができる。   Further, according to this example, the space inside the photographing room is widened (the space is effectively used) as compared with an example in which an input device (button or the like) for instruction input is used separately from a computer device for generating 3D modeling data. )be able to. Further, for example, it is conceivable that the monitor 17 is used as a touch screen and an instruction to start shooting is input through the touch screen. However, compared to such a configuration, the subject moves from an ideal position (center C). It has the advantage that instructions can be entered without doing so. Moreover, since the 3D scanner 1 acquires the surface shape and color information of the subject in the photographing room with high spatial resolution, it is possible to take a highly precise pose.

また、この例によれば、いわゆるAR(Augmented Reality)技術を用いた3Dモデルの生成が可能である。具体的には、被写体に仮想的な3Dオブジェクト(一例としては風船)を持たせたることができる。この場合も、ほぼリアルタイムで、3Dオブジェクトを他のものに交換したり、位置や大きさを修正したり、様々な調整をすることができる。   Further, according to this example, it is possible to generate a 3D model using so-called AR (Augmented Reality) technology. Specifically, the subject can be made to have a virtual 3D object (balloon as an example). Also in this case, the 3D object can be exchanged with another object, the position and the size can be corrected, and various adjustments can be made in almost real time.

4.動作例
図8は、モニター18に表示されるサービスメニューを例示する図である。以下、3Dスキャナ1のより具体的な動作例を説明する。モニター18には、例えば図8のメニューが表示されている。この例では、静止モデルが500円、可動モデルが1000円で生成されることが示されている。なお静止モデルとはポーズが固定のモデルをいい、可動モデルとはいくつかの関節を動かすことができ、異なるポーズを取らせることができるモデルをいう。モニター18はタッチスクリーンであり、所望の項目が表示されている部分をユーザがタッチすることにより、その項目の実施が3Dスキャナ1に指示される。メニューを選択すると、ユーザは出入口から撮影室に入る。
4. Operation Example FIG. 8 is a diagram illustrating a service menu displayed on the monitor 18. Hereinafter, a more specific operation example of the 3D scanner 1 will be described. For example, the menu of FIG. 8 is displayed on the monitor 18. In this example, it is shown that the stationary model is generated for 500 yen and the movable model is generated for 1000 yen. The stationary model refers to a model with a fixed pose, and the movable model refers to a model in which some joints can be moved and different poses can be taken. The monitor 18 is a touch screen, and when the user touches a portion where a desired item is displayed, the 3D scanner 1 is instructed to execute the item. When the menu is selected, the user enters the shooting room through the doorway.

図9は、モニター17に表示される画面を例示する図である。ユーザがモニター18を介してメニュー項目を選択すると、選択されたメニュー項目に応じた画面がモニター17に表示される。この例では「床面のマークに合わせた位置に立って下さい。準備ができたら、右手を頭の上に上げてから下まで下ろして下さい。3秒後に撮影が行われます」という説明が表示される。このとき、3Dスキャナ1はステップS103のジェスチャ入力待ちの状態である。ユーザは床面のマークを見て自身の立ち位置を確認し、準備ができたら右手を頭の上まで挙げてから下まで下ろす。このジェスチャを検出すると、3Dスキャナ1は、撮影のカウントダウンを開始する。モニター17には、撮影(シャッター)までのカウントが表示される。すなわちこのジェスチャは、撮影タイミングを指定するジェスチャの一例である。撮影が行われると、3Dスキャナ1は、センサー群20から出力される画像データ及び距離データを所定のアルゴリズムで処理し、被写体の3Dモデリングデータを生成する。   FIG. 9 is a diagram illustrating a screen displayed on the monitor 17. When the user selects a menu item via the monitor 18, a screen corresponding to the selected menu item is displayed on the monitor 17. In this example, the explanation "Please stand up to the mark on the floor. When you're ready, raise your right hand above your head and lower it down. The picture will be taken in 3 seconds." To be done. At this time, the 3D scanner 1 is in the state of waiting for the gesture input in step S103. The user looks at the mark on the floor to check his or her standing position, and when ready, raises his right hand above his head and then lowers it. When this gesture is detected, the 3D scanner 1 starts the countdown of shooting. On the monitor 17, the count until shooting (shutter) is displayed. That is, this gesture is an example of a gesture that specifies the shooting timing. When photographing is performed, the 3D scanner 1 processes the image data and the distance data output from the sensor group 20 with a predetermined algorithm to generate 3D modeling data of the subject.

図10は、3Dモデリングデータの生成後にモニター17に表示される画面を例示する図である。ここでは、生成された3Dモデリングデータに従って形成された3Dモデルの画像が表示(プレビュー表示)される。さらに、「両手を水平に上げるとモデルが回転します。このモデルでよい場合は右手を頭の上に上げて下さい。撮影をやり直す場合は左手を頭の上に上げて下さい」という説明が表示される。例えばここでユーザが両手を水平に上げると、モニター17に表示される3Dモデルが回転する(すなわち、3Dモデルの視点が変更される)。別の例において、3Dスキャナ1において可動モデルが生成された場合に、ユーザのジェスチャと連動して可動モデルのポーズが変化してもよい。例えば、ユーザが右手を上げるとモニター17の画面内で3Dモデルも右手を上げる。ユーザは3Dモデルの表示(視点の変更及びポーズの変更を含んでもよい)を通じて、要求通りの3Dモデルが生成されたかその場で確認することができる。   FIG. 10 is a diagram illustrating a screen displayed on the monitor 17 after the generation of 3D modeling data. Here, the image of the 3D model formed according to the generated 3D modeling data is displayed (preview display). In addition, the explanation "The model rotates when you raise both hands horizontally. If this model is good, please raise your right hand above your head. If you want to start over, please raise your left hand above your head." To be done. For example, when the user raises both hands horizontally here, the 3D model displayed on the monitor 17 rotates (that is, the viewpoint of the 3D model is changed). In another example, when the movable model is generated in the 3D scanner 1, the pose of the movable model may change in association with the gesture of the user. For example, when the user raises the right hand, the 3D model also raises the right hand within the screen of the monitor 17. Through the display of the 3D model (which may include changing the viewpoint and changing the pose), the user can confirm on the spot whether the requested 3D model has been generated.

撮影が終了すると、生成された3Dモデリングデータの受け渡しに移行する。一例において、3Dモデリングデータの受け渡しは、モニター18を介して行われる。詳細には、例えば、3Dスキャナ1は、生成された3Dモデリングデータを、インターネット上の所定のサーバにアップロードする。3Dスキャナ1は、この3Dモデリングデータをダウンロードするための情報をモニター18に表示する。3Dモデリングデータをダウンロードするための情報には、例えば、ダウンロードするためのURL、並びにサーバにアクセスするためのIDS及びパスワードのうち少なくとも1種が含まれる。これらの情報は、文字で表示されてもよいし、コード化されて画像(例えばQRコード(登録商標))として表示されてもよい。   When the shooting is completed, the process proceeds to transfer the generated 3D modeling data. In one example, the passing of 3D modeling data is done via the monitor 18. Specifically, for example, the 3D scanner 1 uploads the generated 3D modeling data to a predetermined server on the Internet. The 3D scanner 1 displays on the monitor 18 information for downloading this 3D modeling data. The information for downloading the 3D modeling data includes, for example, at least one of a URL for downloading, an IDS for accessing the server, and a password. These pieces of information may be displayed as characters or may be coded and displayed as an image (for example, a QR code (registered trademark)).

あるいは、3Dスキャナ1は、記憶媒体(CD−ROM、USBメモリー等)へデータを書き込むための書き込み装置(図示略)を有し、この書き込み装置を介して3Dモデリングデータが書き込まれた記憶媒体を出力することにより、ユーザに3Dモデリングデータを提供してもよい。   Alternatively, the 3D scanner 1 has a writing device (not shown) for writing data in a storage medium (CD-ROM, USB memory, etc.), and the storage medium in which the 3D modeling data is written is written via the writing device. The 3D modeling data may be provided to the user by outputting.

5.変形例
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
5. Modifications The present invention is not limited to the above-described embodiments, and various modifications can be made. Hereinafter, some modified examples will be described. Two or more of the following modifications may be used in combination.

3Dスキャナ1のフレーム構造は実施形態において例示したものに限定されない。たとえば、出入口は上面視において面積最小の外接矩形の角に相当する位置にではなく、辺に相当する位置に形成されてもよい。ただし、人間が被写体であることを考慮すると(人間は横に広いので)、図1〜5の例のように面積最小の外接矩形の角に相当する位置にした方がスペースの利用効率は良い。   The frame structure of the 3D scanner 1 is not limited to the one exemplified in the embodiment. For example, the doorway may be formed not at a position corresponding to a corner of a circumscribing rectangle having the smallest area in a top view but at a position corresponding to a side. However, considering that a human being is a subject (a human being is wide laterally), it is better to use the space at a position corresponding to the corner of the circumscribing rectangle having the smallest area as in the example of FIGS. .

図11は、変形例に係る3Dスキャナ1のフレーム構造を例示する図である。実施形態において3Dスキャナ1が出入口を1つのみ有する例を説明したが、この変形例において、3Dスキャナ1は入口と、この入口とは別の出口を有する。また、この例において入口と出口は外接矩形の対角線上に設けられる。被写体は、入口から撮影室に入り、撮影した後、向きを変えずにそのまま出口から出ることができる(ウォークスルー形式)。例えば、店舗の入口にこの3Dスキャナ1を設置すれば、3Dスキャナ1は客の3Dモデルを入店時に生成することができ、客はそのまま店内に入ることが可能である。なおこの場合、被写体の正面は出口となるためモニター17及びセンサー群20を設置することはできない。しかし、例えば、パネルコンポーネント12及び14において被写体の顔に近い位置にセンサー群20を多く配置するとか、被写体の正面のパネルコンポーネントの高さを人体より高くし、出口の上にマージンを設けて、このマージン部分にモニター17又はセンサー群20を設置してもよい。   FIG. 11 is a diagram illustrating a frame structure of the 3D scanner 1 according to the modification. Although the example in which the 3D scanner 1 has only one entrance / exit has been described in the embodiment, in this modification, the 3D scanner 1 has an entrance and an exit different from this entrance. Further, in this example, the inlet and the outlet are provided on the diagonal line of the circumscribed rectangle. The subject can enter the shooting room from the entrance, shoot, and then exit the exit without changing direction (walk-through format). For example, if this 3D scanner 1 is installed at the entrance of a store, the 3D scanner 1 can generate a 3D model of a customer when entering the store, and the customer can enter the store as it is. In this case, the monitor 17 and the sensor group 20 cannot be installed because the front of the subject is the exit. However, for example, in the panel components 12 and 14, many sensor groups 20 are arranged at positions close to the subject's face, or the height of the panel component in front of the subject is made higher than the human body, and a margin is provided above the exit, You may install the monitor 17 or the sensor group 20 in this margin part.

この例では、3Dスキャナ1の外縁は、面積最小となる外接正方形において対向する二角を切り欠いた形状(全体としては六角形)を有する。これら切り欠かれた二角のうち一角(左下の角)が入口であり、もう一角(右上の角)が出口である。   In this example, the outer edge of the 3D scanner 1 has a shape (a hexagon as a whole) in which two opposite corners are cut out in a circumscribed square having the smallest area. Of these two notches, one corner (lower left corner) is the entrance and the other corner (upper right corner) is the exit.

また、3Dスキャナ1のフレームは、実施形態で例示したような二重構造でなくてもよい。ただし、設置後の3Dスキャナ1の構造的な強度及び安定性、並びに内装及び外装の加工の容易性を考慮すると、図1〜5の例のようにフレームを二重構造とする方が望ましい。また、3Dスキャナ1は、パイプ又は棒材を組み合わせたフレームに外装又は内装の板材を取り付けた構成でなく、例えば箱型の部材を組み合わせて壁を形成する構造を有していてもよい。   Further, the frame of the 3D scanner 1 may not have the double structure as exemplified in the embodiment. However, considering the structural strength and stability of the 3D scanner 1 after installation and the ease of processing the interior and exterior, it is preferable to make the frame a double structure as in the examples of FIGS. Further, the 3D scanner 1 may have a structure in which, for example, a box-shaped member is combined to form a wall instead of a structure in which an external or internal plate member is attached to a frame in which pipes or rods are combined.

また、3Dスキャナ1のパネルコンポーネントは、実施形態において例示した平面形状(板状)のものに限定されない。例えば、各パネルコンポーネントが局面形状を有し、3Dスキャナ1は全体として例えば卵型又は楕円体であってもよい。   Further, the panel component of the 3D scanner 1 is not limited to the planar shape (plate shape) exemplified in the embodiment. For example, each panel component may have a profile shape, and the 3D scanner 1 may be, for example, an oval or ellipsoid as a whole.

また、3Dスキャナ1は、実施形態で例示したような、ブース形態のものに限定されない。3Dスキャナ1は、パネルコンポーネントを有さず、センサータワーを直接、床面に立てる構成であってもよい。この場合、センサータワーは自立できる構造(台座等)を有する。   Further, the 3D scanner 1 is not limited to the booth type as exemplified in the embodiment. The 3D scanner 1 may have a configuration in which the sensor tower is directly placed on the floor surface without the panel component. In this case, the sensor tower has a structure such as a pedestal that can stand on its own.

センサー群20の取り付け位置は実施形態において例示されたものに限定されない。実施形態においては、1個のセンサータワーに5個のセンサー群20が取り付けられ、これら5個のセンサー群20の取り付け位置がすべてのセンサータワーについて共通である(すなわち、各センサータワーにおいて下からn番目のセンサー群20の位置はすべて同じ)例を説明した。しかし、各センサータワーにおいて、下からn番目のセンサー群20の位置は、他のセンサータワーにおけるセンサー群20の位置と異なっていてもよい。   The mounting position of the sensor group 20 is not limited to the one exemplified in the embodiment. In the embodiment, five sensor groups 20 are attached to one sensor tower, and the attachment positions of these five sensor groups 20 are common to all the sensor towers (that is, in each sensor tower, from the bottom n The positions of the second sensor group 20 are all the same). However, the position of the nth sensor group 20 from the bottom in each sensor tower may be different from the position of the sensor group 20 in another sensor tower.

3Dスキャナ1の機能構成及びハードウェア構成は実施形態において例示されたものに限定されない。実施形態において例示した機能の一部は省略されてもよいし、実施形態において例示したものとは異なるハードウェアが用いられもよい。例えば、ジェスチャの検知及び3Dモデリングデータの生成それぞれに対し異なるコンピュータ装置が用いられてもよい。   The functional configuration and hardware configuration of the 3D scanner 1 are not limited to those exemplified in the embodiment. Some of the functions illustrated in the embodiments may be omitted, or hardware different from those illustrated in the embodiments may be used. For example, different computer devices may be used for detecting the gesture and generating the 3D modeling data, respectively.

3Dスキャナ1に対し指示を入力する手法はジェスチャ入力に限定されない。例えば、音声入力等、ジェスチャ入力以外の手法が用いられてもよい。   The method of inputting an instruction to the 3D scanner 1 is not limited to gesture input. For example, a method other than the gesture input such as voice input may be used.

3Dスキャナ1の被写体は人体(人間)に限定されない。例えば、被写体は洋服であってもよい。この場合において、3Dスキャナ1のコンピュータ装置は、洋服の3Dモデルの生成に加えて(又は代えて)、洋服のサイズを計測してもよい。洋服のサイズは、例えば、首回り、胸回り、胴回り、袖丈、着丈などあらかじめ定義された長さの組で表される。   The subject of the 3D scanner 1 is not limited to the human body (human). For example, the subject may be clothes. In this case, the computer device of the 3D scanner 1 may measure the size of the clothes in addition to (or instead of) generating the 3D model of the clothes. The size of the clothes is represented by a set of predefined lengths such as neck, chest, waist, sleeve length, and dress length.

1…3Dスキャナ、11…パネルコンポーネント、12…パネルコンポーネント、13…パネルコンポーネント、14…パネルコンポーネント、15…パネルコンポーネント、16…フレーム、17…モニター、18…モニター、20…センサー群、101…撮影部、102…処理部、103…モデル生成部、104…UI提供部、111…センサータワー、121…センサータワー、139…空隙 1 ... 3D scanner, 11 ... Panel component, 12 ... Panel component, 13 ... Panel component, 14 ... Panel component, 15 ... Panel component, 16 ... Frame, 17 ... Monitor, 18 ... Monitor, 20 ... Sensor group, 101 ... Shooting Unit, 102 ... Processing unit, 103 ... Model generating unit, 104 ... UI providing unit, 111 ... Sensor tower, 121 ... Sensor tower, 139 ... Void

Claims (10)

被写体を撮影するための複数のセンサー群であって、各々が画像センサー及び距離センサーを含み、想定される被写体の中心位置に対して鉛直上方向から見たとき当該中心位置から当該複数のセンサー群の各々までの距離が非対称である複数のセンサー群と、
前記画像センサーにより撮影された前記被写体の画像、及び前記距離センサーにより得られた当該被写体までの距離を用いて、当該被写体の三次元モデルを示す三次元モデリングデータを生成するコンピュータ装置と
を有する三次元モデリングデータ生成装置。
A plurality of sensor groups for photographing a subject, each including an image sensor and a distance sensor, and the plurality of sensor groups from the center position when viewed from vertically above the supposed center position of the subject A plurality of sensor groups with asymmetric distances to each of
A computer device that generates three-dimensional modeling data indicating a three-dimensional model of the subject using the image of the subject captured by the image sensor and the distance to the subject obtained by the distance sensor. Original modeling data generator.
前記鉛直上方向から見たとき前記複数のセンサー群の外接楕円の扁平率が0より大きい
請求項1に記載の三次元モデリングデータ生成装置。
The three-dimensional modeling data generation device according to claim 1, wherein the flatness of the circumscribed ellipse of the plurality of sensor groups is greater than 0 when viewed from the vertically upward direction.
前記外接楕円の短半径近傍に配置され、前記コンピュータ装置から出力される画像を表示する表示装置を有する
請求項2に記載の三次元モデリングデータ生成装置。
The three-dimensional modeling data generation device according to claim 2, further comprising a display device which is arranged in the vicinity of a short radius of the circumscribing ellipse and which displays an image output from the computer device.
前記表示装置は、前記三次元モデルをプレビュー表示する
請求項3に記載の三次元モデリングデータ生成装置。
The three-dimensional modeling data generation device according to claim 3, wherein the display device displays a preview of the three-dimensional model.
前記コンピュータ装置は、前記画像センサーを介してジェスチャ入力された指示に応じた処理を行う
請求項1乃至4のいずれか一項に記載の三次元モデリングデータ生成装置。
The three-dimensional modeling data generation device according to any one of claims 1 to 4, wherein the computer device performs a process in accordance with an instruction input by a gesture via the image sensor.
前記指示が、前記被写体の撮影タイミングの指定を含み、
前記コンピュータ装置は、前記画像センサーを介してジェスチャ入力された指示に応じたタイミングで前記画像センサーにより撮影された前記被写体の画像を用いて前記三次元モデリングデータを生成する
請求項5に記載の三次元モデリングデータ生成装置。
The instruction includes designation of a shooting timing of the subject,
The tertiary computer according to claim 5, wherein the computer device generates the three-dimensional modeling data by using an image of the subject captured by the image sensor at a timing according to an instruction input by a gesture through the image sensor. Original modeling data generator.
前記指示が、前記三次元モデルをプレビュー表示する際の視点の位置の指定を含み、
前記表示装置は、前記画像センサーを介してジェスチャ入力された指示に応じて決定された位置の視点から、前記三次元モデルをプレビュー表示する
請求項5に記載の三次元モデリングデータ生成装置。
The instruction includes designation of a position of a viewpoint when the three-dimensional model is preview-displayed,
The three-dimensional modeling data generation device according to claim 5, wherein the display device preview-displays the three-dimensional model from a viewpoint of a position determined according to an instruction input by a gesture via the image sensor.
前記鉛直上方向から見て外縁が所定の形状のフレームを有し、
前記複数のセンサー群は、前記フレームに取り付けられる
請求項1乃至7のいずれか一項に記載の三次元モデリングデータ生成装置。
When viewed from the vertically upward direction, the outer edge has a frame having a predetermined shape,
The three-dimensional modeling data generation device according to claim 1, wherein the plurality of sensor groups are attached to the frame.
前記所定の形状が、正方形の一角を切り欠いた五角形、又は正方形の対向する二角を切り欠いた六角形である
請求項8に記載の三次元モデリングデータ生成装置。
The three-dimensional modeling data generation device according to claim 8, wherein the predetermined shape is a pentagon in which one corner of a square is cut out, or a hexagon in which two opposite corners of a square are cut out.
前記フレームは、前記切り欠かれた角に相当する辺に、前記被写体の出入口となる開口を有する
請求項9に記載の三次元モデリングデータ生成装置。
The three-dimensional modeling data generation device according to claim 9, wherein the frame has an opening serving as a doorway of the subject on a side corresponding to the notched corner.
JP2018200800A 2018-10-25 2018-10-25 Three-dimensional modeling data generation device Pending JP2020067393A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018200800A JP2020067393A (en) 2018-10-25 2018-10-25 Three-dimensional modeling data generation device
JP2022048609A JP2022089846A (en) 2018-10-25 2022-03-24 Three-dimensional modeling data generation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018200800A JP2020067393A (en) 2018-10-25 2018-10-25 Three-dimensional modeling data generation device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022048609A Division JP2022089846A (en) 2018-10-25 2022-03-24 Three-dimensional modeling data generation device

Publications (2)

Publication Number Publication Date
JP2020067393A true JP2020067393A (en) 2020-04-30
JP2020067393A5 JP2020067393A5 (en) 2021-12-02

Family

ID=70390142

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018200800A Pending JP2020067393A (en) 2018-10-25 2018-10-25 Three-dimensional modeling data generation device
JP2022048609A Pending JP2022089846A (en) 2018-10-25 2022-03-24 Three-dimensional modeling data generation device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022048609A Pending JP2022089846A (en) 2018-10-25 2022-03-24 Three-dimensional modeling data generation device

Country Status (1)

Country Link
JP (2) JP2020067393A (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3085950B1 (en) * 1999-07-26 2000-09-11 株式会社メイクソフトウェア Photo vending machine
JP2001346134A (en) * 2000-05-31 2001-12-14 Konica Corp Automatic photo generating device
JP2002032744A (en) * 2000-07-14 2002-01-31 Komatsu Ltd Device and method for three-dimensional modeling and three-dimensional image generation
JP2004254171A (en) * 2003-02-21 2004-09-09 Make Softwear:Kk Photographic device
JP2014033307A (en) * 2012-08-02 2014-02-20 Sony Corp Data storage device and program
JP3195609U (en) * 2014-11-10 2015-01-29 株式会社イノベ−ション・アイ 3D model creation device
JP2015205461A (en) * 2014-04-21 2015-11-19 株式会社ミマキエンジニアリング Cubic molding device
JP2017157208A (en) * 2016-02-26 2017-09-07 株式会社ワン・トゥー・テン・イマジン Three-dimensional model generation method, three-dimensional model generation device, three-dimensional model generation system, and program for generating three-dimensional model

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002058045A (en) * 2000-08-08 2002-02-22 Komatsu Ltd System and method for entering real object into virtual three-dimensional space
JP2004295813A (en) * 2003-03-28 2004-10-21 Babcock Hitachi Kk 3-dimensional figure verification unit
US7557966B2 (en) * 2004-08-11 2009-07-07 Acushnet Company Apparatus and method for scanning an object
JP2008038342A (en) * 2006-08-01 2008-02-21 Hit Kk Sound insulation box for cellular phone
KR101616176B1 (en) * 2014-02-27 2016-04-27 곽지민 Full body high speed three dimesional scanning apparatus
JP2016096838A (en) * 2014-11-18 2016-05-30 株式会社東芝 Information processor
US9429817B1 (en) * 2015-10-15 2016-08-30 Wild Blue Technologies, Inc. Modular image capture booth

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3085950B1 (en) * 1999-07-26 2000-09-11 株式会社メイクソフトウェア Photo vending machine
JP2001346134A (en) * 2000-05-31 2001-12-14 Konica Corp Automatic photo generating device
JP2002032744A (en) * 2000-07-14 2002-01-31 Komatsu Ltd Device and method for three-dimensional modeling and three-dimensional image generation
JP2004254171A (en) * 2003-02-21 2004-09-09 Make Softwear:Kk Photographic device
JP2014033307A (en) * 2012-08-02 2014-02-20 Sony Corp Data storage device and program
JP2015205461A (en) * 2014-04-21 2015-11-19 株式会社ミマキエンジニアリング Cubic molding device
JP3195609U (en) * 2014-11-10 2015-01-29 株式会社イノベ−ション・アイ 3D model creation device
JP2017157208A (en) * 2016-02-26 2017-09-07 株式会社ワン・トゥー・テン・イマジン Three-dimensional model generation method, three-dimensional model generation device, three-dimensional model generation system, and program for generating three-dimensional model

Also Published As

Publication number Publication date
JP2022089846A (en) 2022-06-16

Similar Documents

Publication Publication Date Title
CN106803884B (en) Image processing apparatus
US9743039B2 (en) Immersive telepresence anywhere
JP2019008286A (en) Projection system and display image correction method
JP5985336B2 (en) Panorama image creating apparatus and program
JP6723512B2 (en) Image processing apparatus, image processing method and program
JP5791577B2 (en) Image processing apparatus, image display method, and program
TW201801516A (en) Image capturing apparatus and photo composition method thereof
US10600218B2 (en) Display control system, display control apparatus, display control method, and storage medium
JP5525495B2 (en) Image monitoring apparatus, image monitoring method and program
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
JP2003015218A (en) Projection display device
JP6640294B1 (en) Mixed reality system, program, portable terminal device, and method
KR20190019059A (en) System and method for capturing horizontal parallax stereo panoramas
JP2019146155A (en) Image processing device, image processing method, and program
JP2020067393A (en) Three-dimensional modeling data generation device
JP6412685B2 (en) Video projection device
WO2015198478A1 (en) Image distortion correction apparatus, information processing apparatus and image distortion correction method
JP5645448B2 (en) Image processing apparatus, image processing method, and program
WO2019043734A1 (en) System and method for generating 360 virtual view of a garment
JP2010219989A (en) Communication support system, display control apparatus, and display control method
CN114979616A (en) Display method, information processing apparatus, and recording medium
JP2017004110A (en) Design review system and design review server
JP5995539B2 (en) Information processing apparatus, information processing method, and program
JP6212878B2 (en) Image processing apparatus, image processing system, and program
JP2020162149A (en) Vehicle photographing system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211022

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220105