JP2015179315A - Object generation device, method, and program - Google Patents

Object generation device, method, and program Download PDF

Info

Publication number
JP2015179315A
JP2015179315A JP2014055386A JP2014055386A JP2015179315A JP 2015179315 A JP2015179315 A JP 2015179315A JP 2014055386 A JP2014055386 A JP 2014055386A JP 2014055386 A JP2014055386 A JP 2014055386A JP 2015179315 A JP2015179315 A JP 2015179315A
Authority
JP
Japan
Prior art keywords
unit
text
model
parts
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014055386A
Other languages
Japanese (ja)
Other versions
JP5833166B2 (en
Inventor
九月 貞光
Kugatsu Sadamitsu
九月 貞光
裕 千明
Yutaka Chiaki
裕 千明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014055386A priority Critical patent/JP5833166B2/en
Publication of JP2015179315A publication Critical patent/JP2015179315A/en
Application granted granted Critical
Publication of JP5833166B2 publication Critical patent/JP5833166B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a user to select parts, and to synthesize the selected parts with an object model on the basis of an input text or voice.SOLUTION: An initial text analysis part 1022 extracts an object name and attribute expressions from an input text, and an object parts group determination part 1024 specifies a parts group on the basis of the object name, and a parts selection part 1030 selects the part having a high co-occurrence degree in the attribute expressions with a plurality of parts belonging to the parts group, and a parts synthesis part 1034 synthesizes the selected parts with a 3D object model.

Description

本発明は、オブジェクト生成装置、方法、及びプログラムに係り、特に、オブジェクトモデルを生成するオブジェクト生成装置、方法、及びプログラムに関する。   The present invention relates to an object generation device, method, and program, and more particularly, to an object generation device, method, and program for generating an object model.

先行技術では、音声によるテキスト検索や画像検索が多くなされている(非特許文献11)。   In the prior art, many text searches and image searches are performed by voice (Non-patent Document 11).

[online]、インターネット<URL:http://www.ipa.go.jp/files/000006056.pdf>(検索日:平成26年2月12日)[online], Internet <URL: http: //www.ipa.go.jp/files/000006056.pdf> (Search date: February 12, 2014)

しかしながら、テキスト検索や画像検索の出力は、コンピュータ中の画像出力に留まる等、実世界出力とは全く異なっている。   However, text search and image search outputs are completely different from real world outputs, such as being limited to image output in a computer.

また、音声から物体が出力される、ということはこれまで提案されていない。ユーザが非常に容易なインタフェースから、欲しいものを出力する際において、これは必要な技術である。   Moreover, it has not been proposed so far that an object is output from voice. This is a necessary technique for the user to output what he wants from a very easy interface.

本発明は、上記の事情を鑑みてなされたもので、ユーザが、入力が容易なインタフェースから、オブジェクトモデルを得ることができるオブジェクト生成装置、方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an object generation device, method, and program that allow a user to obtain an object model from an interface that allows easy input.

上記の目的を達成するために本発明に係るオブジェクト生成装置は、入力されたテキスト及び音声の少なくとも一方から、オブジェクトモデルに関するオブジェクト名と、前記オブジェクト名に付加される属性表現とを抽出するテキスト解析部と、前記テキスト解析部によって抽出されたオブジェクト名に基づいて、前記オブジェクト名のオブジェクトモデルのパーツであって、対応する複数のパーツからなるパーツ群を特定するパーツ群決定部と、前記パーツ群決定部によって特定されたパーツ群に属する複数のパーツの各々について、前記パーツを表現する文字列と、前記テキスト解析部によって抽出された属性表現との共起度を算出し、前記特定されたパーツ群に属する複数のパーツから、前記算出された共起度に基づいて、パーツを選択するパーツ選択部と、前記テキスト解析部によって抽出されたオブジェクト名に対応するオブジェクトモデルと、前記パーツ選択部によって選択された前記パーツとを合成するパーツ合成部と、を含んで構成されている。   To achieve the above object, an object generation apparatus according to the present invention extracts a text analysis that extracts an object name related to an object model and an attribute expression added to the object name from at least one of input text and voice. A part group determining unit for identifying a part group consisting of a plurality of corresponding parts that are parts of the object model of the object name based on the object name extracted by the text analysis unit, and the part group For each of a plurality of parts belonging to the part group specified by the determination unit, a co-occurrence degree between the character string expressing the part and the attribute expression extracted by the text analysis unit is calculated, and the specified part Based on the calculated degree of co-occurrence from a plurality of parts belonging to a group, A parts selection unit to select, an object model corresponding to the object name extracted by the text analysis unit, and a parts synthesis unit that synthesizes the parts selected by the parts selection unit. .

また、第1の発明において、前記パーツ群決定部は、前記オブジェクト名の各々に対して予め定められた前記オブジェクトモデルのクラス名を記憶したクラス名データベースから、前記テキスト解析部によって抽出されたオブジェクト名に対する前記オブジェクトモデルのクラス名を取得し、前記オブジェクトモデルのクラス名の各々に対して予め定められた前記パーツ群を記憶した必要パーツ群データベースから、前記取得したクラス名に対する前記パーツ群を取得してもよい。   Further, in the first invention, the parts group determination unit is an object extracted by the text analysis unit from a class name database storing class names of the object model predetermined for each of the object names. The class name of the object model for the name is acquired, and the part group for the acquired class name is acquired from the necessary parts group database storing the parts group predetermined for each of the class names of the object model May be.

また、第1の発明において、前記パーツ選択部は、前記パーツ群決定部によって特定されたパーツ群に属する複数のパーツの各々について、前記パーツを表現する文字列と、前記テキスト解析部によって抽出された属性表現とを含む検索クエリを用いて、大規模テキストに対して検索を行い、検索結果により得られた検索ヒット数に基づいて前記共起度を算出し、前記特定されたパーツ群に属する複数のパーツから、前記算出された共起度に基づいて、パーツを選択してもよい。   In the first invention, the part selection unit is extracted by the text analysis unit and a character string representing the part for each of a plurality of parts belonging to the part group specified by the part group determination unit. A large-scale text is searched using a search query including the attribute expression, the co-occurrence degree is calculated based on the number of search hits obtained from the search result, and belongs to the specified parts group A part may be selected from a plurality of parts based on the calculated co-occurrence degree.

また、第1の発明において、前記パーツ群決定部は、前記テキスト解析部によって抽出されたオブジェクト名に基づいて、少なくとも1つの前記パーツ群を特定し、前記パーツ選択部は、前記パーツ群決定部によって特定された前記少なくとも1つのパーツ群の各々に属するパーツの組み合わせの各々について、前記組み合わせのパーツの各々を表現する文字列と、前記テキスト解析部によって抽出された属性表現とを含む検索クエリを用いて、大規模テキストに対して検索を行い、検索結果により得られた検索ヒット数に基づいて前記共起度を算出し、前記特定された前記少なくとも1つのパーツ群の各々に属するパーツの組み合わせから、前記算出された共起度に基づいて、前記パーツの組み合わせを選択し、前記パーツ合成部は、前記テキスト解析部によって抽出されたオブジェクト名に対応するオブジェクトモデルと、前記パーツ選択部によって選択された前記パーツの組み合わせとを合成してもよい。   Further, in the first invention, the parts group determination unit specifies at least one part group based on the object name extracted by the text analysis unit, and the parts selection unit includes the parts group determination unit. For each combination of parts belonging to each of the at least one part group specified by the above, a search query including a character string representing each of the parts of the combination and an attribute expression extracted by the text analysis unit A combination of parts belonging to each of the identified at least one part group, performing a search on a large-scale text, calculating the co-occurrence based on the number of search hits obtained from the search result Based on the calculated co-occurrence degree, the combination of the parts is selected, and the parts synthesis unit And object model corresponding to the object name extracted by the text analysis unit, and a combination of the part selected by the part selection section may be synthesized.

また、第1の発明において、前記パーツ合成部によって前記オブジェクトモデルと前記パーツとを合成することにより生成された3次元オブジェクトモデルに基づいて、3次元の造形物を形成する3次元造形部を更に含んでもよい。   In the first invention, a three-dimensional modeling unit that forms a three-dimensional model based on a three-dimensional object model generated by synthesizing the object model and the part by the parts synthesis unit. May be included.

第2の発明に係るオブジェクト生成方法は、テキスト解析部が、入力されたテキスト及び音声の少なくとも一方から、オブジェクトモデルに関するオブジェクト名と、前記オブジェクト名に付加される属性表現とを抽出するステップと、パーツ群決定部が、前記テキスト解析部によって抽出されたオブジェクト名に基づいて、前記オブジェクト名のオブジェクトモデルのパーツであって、対応する複数のパーツからなるパーツ群を特定するステップと、パーツ選択部が、前記パーツ群決定部によって特定されたパーツ群に属する複数のパーツの各々について、前記パーツを表現する文字列と、前記テキスト解析部によって抽出された属性表現との共起度を算出し、前記特定されたパーツ群に属する複数のパーツから、前記算出された共起度に基づいて、パーツを選択するステップと、パーツ合成部が、前記テキスト解析部によって抽出されたオブジェクト名に対応するオブジェクトモデルと、前記パーツ選択部によって選択された前記パーツとを合成するステップと、を含んで構成されている。   In the object generation method according to the second invention, the text analysis unit extracts an object name related to the object model and an attribute expression added to the object name from at least one of the input text and voice; A part group determining unit, based on the object name extracted by the text analyzing unit, identifying a part group consisting of a plurality of corresponding parts that are parts of the object model of the object name; and a part selecting unit However, for each of a plurality of parts belonging to the part group specified by the parts group determination unit, to calculate the co-occurrence of the character string representing the part and the attribute expression extracted by the text analysis unit, From the plurality of parts belonging to the specified part group, the calculated co-occurrence degree Therefore, a step of selecting a part, and a part synthesizing unit synthesizing the object model corresponding to the object name extracted by the text analyzing unit and the part selected by the part selecting unit. It is configured to include.

第3の発明に係るプログラムは、コンピュータを、上記の第1の発明のオブジェクト生成装置の各部として機能させるためのプログラムである。   A program according to a third invention is a program for causing a computer to function as each unit of the object generation device according to the first invention.

本発明のオブジェクト生成装置、方法、及びプログラムによれば、入力されたテキスト又は音声からオブジェクト名と属性表現とを抽出し、抽出されたオブジェクト名からパーツ群を特定し、パーツ群に属するパーツと属性表現との共起度を算出し、算出された共起度に基づいて、パーツ群からパーツを選択し、オブジェクトモデルと合成することで、ユーザが、入力が容易なインタフェースから、オブジェクトモデルを得ることができる、という効果が得られる。   According to the object generation device, method, and program of the present invention, an object name and attribute expression are extracted from input text or voice, a part group is specified from the extracted object name, and a part belonging to the part group By calculating the degree of co-occurrence with the attribute expression, selecting a part from the group of parts based on the calculated degree of co-occurrence, and synthesizing it with the object model, the user can select the object model from an interface that allows easy input. The effect that it can obtain is acquired.

本発明の第1の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 1st Embodiment of this invention. 3Dオブジェクトモデルのオブジェクト名の階層構造を示す図である。It is a figure which shows the hierarchical structure of the object name of a 3D object model. 変形後3Dオブジェクトモデルを出力する様子を示す図である。It is a figure which shows a mode that the 3D object model after a deformation | transformation is output. 本発明の第1の実施の形態に係る3次元オブジェクト生成装置における3次元オブジェクト生成処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional object generation process routine in the three-dimensional object generation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 2nd Embodiment of this invention. 取得した3Dオブジェクトモデルを出力する様子を示す図である。It is a figure which shows a mode that the acquired 3D object model is output. 形成した3次元造形物を示す図である。It is a figure which shows the formed three-dimensional structure. 本発明の第2の実施の形態に係る3次元オブジェクト生成装置における3次元オブジェクト生成処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional object generation process routine in the three-dimensional object generation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る3次元オブジェクト生成装置における3次元オブジェクト生成処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional object production | generation routine in the three-dimensional object production | generation apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 4th Embodiment of this invention. 本発明の第5の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 5th Embodiment of this invention. 本発明の第5の実施の形態に係る対話テキスト解析部の構成を示す概略図である。It is the schematic which shows the structure of the dialog text analysis part which concerns on the 5th Embodiment of this invention. 単語対操作変換表の例を示す図である。It is a figure which shows the example of a word pair operation conversion table. キーワード対操作候補対応表の例を示す図である。It is a figure which shows the example of a keyword versus operation candidate correspondence table. 本発明の第5の実施の形態に係る3次元オブジェクト生成装置における3次元オブジェクト編集処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional object edit processing routine in the three-dimensional object production | generation apparatus which concerns on the 5th Embodiment of this invention. 本発明の第5の実施の形態に係る3次元オブジェクト生成装置における3次元オブジェクト編集処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional object edit processing routine in the three-dimensional object production | generation apparatus which concerns on the 5th Embodiment of this invention. 本発明の第6の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 6th Embodiment of this invention. 本発明の第6の実施の形態に係る対話テキスト解析部の構成を示す概略図である。It is the schematic which shows the structure of the dialog text analysis part which concerns on the 6th Embodiment of this invention. 本発明の第6の実施の形態に係る3次元オブジェクト生成装置における3次元オブジェクト編集処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional object edit processing routine in the three-dimensional object production | generation apparatus which concerns on the 6th Embodiment of this invention. 本発明の第6及び第7の実施の形態に係る3次元オブジェクト生成装置における3次元オブジェクト編集処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional object edit processing routine in the three-dimensional object production | generation apparatus which concerns on the 6th and 7th embodiment of this invention. 本発明の第7の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 7th Embodiment of this invention. 本発明の第7の実施の形態に係る対話テキスト解析部の構成を示す概略図である。It is the schematic which shows the structure of the dialog text analysis part which concerns on the 7th Embodiment of this invention. 本発明の第7の実施の形態に係る3次元オブジェクト生成装置における3次元オブジェクト編集処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional object edit process routine in the three-dimensional object production | generation apparatus which concerns on the 7th Embodiment of this invention. 本発明の第8の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 8th Embodiment of this invention. 本発明の第8の実施の形態に係る3次元オブジェクト生成装置における3次元オブジェクト編集処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional object edit process routine in the three-dimensional object production | generation apparatus which concerns on the 8th Embodiment of this invention. 本発明の第9の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 9th Embodiment of this invention. 形態素解析結果の例を示す図である。It is a figure which shows the example of a morphological analysis result. 本発明の第9の実施の形態に係る対話テキスト解析部の構成を示す概略図である。It is the schematic which shows the structure of the dialog text analysis part which concerns on the 9th Embodiment of this invention. 本発明の第9の実施の形態に係る3次元オブジェクト生成装置における3次元オブジェクト編集処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional object edit processing routine in the three-dimensional object production | generation apparatus which concerns on the 9th Embodiment of this invention. 文字を表す3次元造形物を示す図である。It is a figure which shows the three-dimensional structure which represents a character. 本発明の第10の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 10th Embodiment of this invention. 本発明の第11の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 11th Embodiment of this invention. 本発明の第12の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 12th Embodiment of this invention. 本発明の第13の実施の形態に係る3次元オブジェクト生成装置の構成を示す概略図である。It is the schematic which shows the structure of the three-dimensional object production | generation apparatus which concerns on the 13th Embodiment of this invention. 本発明の第10の実施の形態に係る3次元オブジェクト生成装置における3次元オブジェクト生成処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the three-dimensional object production | generation routine in the three-dimensional object production | generation apparatus which concerns on the 10th Embodiment of this invention. 3Dオブジェクトモデル、必要パーツ群のデータベースの例を示す図である。It is a figure which shows the example of the database of 3D object model and a required parts group. 3Dパーツモデルのデータベースの例を示す図である。It is a figure which shows the example of the database of 3D parts model.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第1の実施の形態] [First Embodiment]

<システム構成> <System configuration>

本発明の第1の実施の形態に係る3次元オブジェクト生成装置100は、入力されたテキストから、3Dオブジェクトモデルを紐づけ、さらにそれを変形する処理を行う。この3次元オブジェクト生成装置100は、CPUと、RAMと、後述する3次元オブジェクト生成処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。図1に示すように、3次元オブジェクト生成装置100は、入力部10と、演算部20と、モデル出力部30とを備えている。   The three-dimensional object generation device 100 according to the first embodiment of the present invention performs processing for associating a 3D object model from the input text and further transforming it. The three-dimensional object generation device 100 is composed of a computer including a CPU, a RAM, and a ROM that stores a program for executing a three-dimensional object generation processing routine to be described later. It is configured. As illustrated in FIG. 1, the three-dimensional object generation device 100 includes an input unit 10, a calculation unit 20, and a model output unit 30.

入力部10は、キーボード等により、3Dオブジェクトモデルに関するテキスト入力を受け付ける。例えば、「10cmの黄色い車」というテキスト入力を受け付ける。   The input unit 10 receives text input related to the 3D object model using a keyboard or the like. For example, a text input “10 cm yellow car” is accepted.

演算部20は、テキスト解析部21、3Dオブジェクトモデルデータベース22、モデル取得部23、及びモデル変形部24を備えている。   The calculation unit 20 includes a text analysis unit 21, a 3D object model database 22, a model acquisition unit 23, and a model deformation unit 24.

テキスト解析部21は、入力されたテキストから、対象となる3Dオブジェクトモデルに関するテキスト表現(例えば「車」)を同定する。   The text analysis unit 21 identifies a text expression (for example, “car”) related to the target 3D object model from the input text.

例えば、3Dオブジェクトモデルデータベース22に登録されている3Dオブジェクトモデルのオブジェクト名と入力されたテキストとの単純マッチングを行って、対象となる3Dオブジェクトモデルに関するテキスト表現を同定する。あるいは、入力されたテキストに対する形態素解析を行い、形態素解析の結果に基づいて、品詞が名詞であるものや、物体についての固有表現を抽出して、対象となる3Dオブジェクトモデルに関するテキスト表現として同定する。   For example, simple matching between the object name of the 3D object model registered in the 3D object model database 22 and the input text is performed to identify the text expression related to the target 3D object model. Alternatively, the morphological analysis is performed on the input text, and based on the result of the morphological analysis, the part of speech is a noun or the specific expression about the object is extracted and identified as the text expression regarding the target 3D object model. .

また、テキスト解析部21は、入力されたテキストから、対象となる3Dオブジェクトモデルに関するテキスト表現に付加される属性値(例えば「10cmの」「黄色い」「5個の」等)を同定する。属性値としては、色、大きさ、個数など、オブジェクトに関するものであれば特に種類を問わない。   Further, the text analysis unit 21 identifies attribute values (for example, “10 cm”, “yellow”, “5”, etc.) to be added to the text expression related to the target 3D object model from the input text. The attribute value is not particularly limited as long as it relates to the object, such as color, size, and number.

属性値の同定方法については、テキストから属性値を同定するための予め定められた正規表現(例えば、「/.+c?m/,/.+個/」)を用いて同定する方法であってもよい。また、固有表現抽出により、3Dオブジェクトモデルに関するテキスト表現を同定する場合であって、固有表現のクラスに長さや色が予め定義されている場合(例えば、関根の拡張固有表現定義等)には、抽出された固有表現のクラスに定義されている長さや色を、属性値として同定してもよい。また、複数のオブジェクトに関するテキスト表現が入力される場合(例えば、「赤い車と緑の家」)などにおいては、テキストに対して係り受け解析を行い、係り受け解析の結果を用いて、3Dオブジェクトモデルに関するテキスト表現毎に、属性値を同定してもよい(例えば、「車」←赤、「家」←緑)。   The attribute value is identified by using a regular expression (for example, “/.+c?m/,/.+pieces/”) for identifying the attribute value from text. May be. In addition, when a text expression related to a 3D object model is identified by extraction of a specific expression, and the length and color are defined in advance in the specific expression class (for example, extended specific expression definition of Sekine), The length and color defined in the extracted specific expression class may be identified as the attribute value. In addition, when text expressions related to a plurality of objects are input (for example, “red car and green house”), dependency analysis is performed on the text, and the result of dependency analysis is used to generate a 3D object. An attribute value may be identified for each text expression related to the model (for example, “car” ← red, “house” ← green).

3Dオブジェクトモデルデータベース22は、複数の3Dオブジェクトモデルのデータを、3Dオブジェクトモデルのオブジェクト名と対応付けて記憶している。ここで、3Dオブジェクトモデルとは、コンピュータ上などにおける仮想的な3Dモデルである。3Dオブジェクトモデルデータベース22では、複数の3Dオブジェクトモデルのデータが、予め定義された階層構造に従って記憶されている。なお、オブジェクト名は、オブジェクトを示す名詞や固有名詞以外であってもよく、任意のラベルであってもよい。   The 3D object model database 22 stores a plurality of 3D object model data in association with object names of the 3D object model. Here, the 3D object model is a virtual 3D model on a computer or the like. In the 3D object model database 22, data of a plurality of 3D object models are stored according to a predefined hierarchical structure. The object name may be other than a noun or proper noun indicating the object, or may be an arbitrary label.

モデル取得部23は、テキスト解析部21によって同定された3Dオブジェクトモデルに関するテキスト表現を、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名と紐づけ、当該オブジェクト名の3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得する(「車」→大きさが3mで色が赤の車オブジェクト)。   The model acquisition unit 23 associates the text representation related to the 3D object model identified by the text analysis unit 21 with the object name stored in the 3D object model database 22, and converts the 3D object model data of the object name to 3D Obtained from the object model database 22 (“car” → car object with a size of 3 m and a red color).

ここで、同定されたテキスト表現とオブジェクト名との紐づけは、オブジェクト名をクラスラベルと見なした階層的な分類問題として解くことによって行われる。階層の定義はあらかじめ決められたものを仮定する。また、分類モデルについては、テキスト表現とクラスラベル(オブジェクト名)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、階層毎の分類モデルを学習しておけばよい。   Here, the association between the identified text representation and the object name is performed by solving as a hierarchical classification problem in which the object name is regarded as a class label. The hierarchy definition is assumed to be predetermined. As for the classification model, it is only necessary to prepare a plurality of learning data in which a text expression and a class label (object name) are associated with each other on a one-to-one basis, and learn a classification model for each layer based on the learning data. .

図2に概念図を示す。例えば、テキスト表現「車」、「4輪」、「ぶーぶー」の各々は、図2において、はじめ「乗り物オブジェクト」に分類された後、「車オブジェクト」へと分類され、全て車オブジェクトに紐づけられる。   FIG. 2 shows a conceptual diagram. For example, each of the text expressions “car”, “four wheels”, and “blue” is classified as “vehicle object” in FIG. 2 and then classified as “car object”. It is tied to.

分類処理の結果、リーフオブジェクトモデルに至らず、該当するリーフオブジェクトモデルとしての3Dオブジェクトモデルが存在しないと判明した場合は、ひとつ上の階層のオブジェクトに分類する。   As a result of the classification process, when it is determined that the 3D object model as the corresponding leaf object model does not exist because the leaf object model is not reached, the object is classified into the object of the next higher level.

例えば、「蕎麦」に該当するリーフオブジェクトモデルとしての3Dオブジェクトが存在しない場合、上位クラスの”麺料理”オブジェクトに分類する。   For example, when a 3D object as a leaf object model corresponding to “Soba” does not exist, it is classified into a higher class “noodle dish” object.

モデル変形部24は、モデル取得部23で得られた3Dオブジェクトモデルを、テキスト解析部21で同定した属性値にしたがって変形させて、図3に示すように、変形後3Dオブジェクトモデル(例えば、大きさが10cmで黄色の車オブジェクトモデル)を、モデル出力部30により出力する。ここで、変形後3Dオブジェクトモデルとは、テキストの内容に従い変形を施した、コンピュータ上などにおける仮想的な3Dモデルである。   The model deforming unit 24 deforms the 3D object model obtained by the model acquiring unit 23 according to the attribute value identified by the text analyzing unit 21, and, as shown in FIG. The model output unit 30 outputs a yellow car object model having a length of 10 cm. Here, the post-deformation 3D object model is a virtual 3D model on a computer or the like that has been deformed according to the content of the text.

例えば、テキスト解析部21で同定した属性値が大きさ又は色に関する属性値である場合には、大きさ又は色に関する属性値を、VRML(Virtual Reality Modeling Language:仮想現実モデリング言語)形式で記述して、3Dオブジェクトを変形させる。また、テキスト解析部21で同定した属性値が、模様(テクスチャ)に関する属性値である場合には、テクスチャを画像的に編集等して3Dオブジェクトを変形させる。また、テキスト解析部21で同定した属性値が、個数に関する属性値である場合には、複数個のオブジェクトを、CAD編集ソフトウェアのコピーアンドペースト機能を使って、3Dオブジェクトを変形させる。   For example, when the attribute value identified by the text analysis unit 21 is an attribute value related to size or color, the attribute value related to size or color is described in VRML (Virtual Reality Modeling Language) format. To deform the 3D object. If the attribute value identified by the text analysis unit 21 is an attribute value related to a pattern (texture), the 3D object is deformed by editing the texture imagewise. If the attribute value identified by the text analysis unit 21 is an attribute value related to the number, the 3D object is deformed from a plurality of objects using the copy and paste function of the CAD editing software.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、第1の実施の形態に係る3次元オブジェクト生成装置100の作用について説明する。まず、生成したい3Dオブジェクトモデルに関するテキスト表現及び属性値を含むテキストが、3次元オブジェクト生成装置100に入力されると、3次元オブジェクト生成装置100によって、図4に示す3次元オブジェクト生成処理ルーチンが実行される。   Next, the operation of the three-dimensional object generation device 100 according to the first embodiment will be described. First, when text including a text representation and attribute values relating to a 3D object model to be generated is input to the 3D object generation device 100, the 3D object generation device 100 executes a 3D object generation processing routine shown in FIG. Is done.

まず、ステップS101において、入力されたテキストを解析し、3Dオブジェクトモデルに関するテキスト表現及び属性値を同定する。   First, in step S101, the input text is analyzed to identify the text representation and attribute values related to the 3D object model.

そして、ステップS102において、上記ステップS101で同定した3Dオブジェクトモデルに関するテキスト表現を、予め用意した分類モデル及び階層構造に従って、3Dオブジェクトモデルデータベース22の3Dオブジェクトモデルのオブジェクト名の何れかに分類し、分類されたオブジェクト名に対応する3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得する。   In step S102, the text representation related to the 3D object model identified in step S101 is classified into one of the object names of the 3D object model in the 3D object model database 22 according to the classification model and hierarchical structure prepared in advance, and classified. Data of the 3D object model corresponding to the object name is acquired from the 3D object model database 22.

次のステップS103では、上記ステップS102で取得した3Dオブジェクトモデルのデータを、上記ステップS101で同定した属性値に従って変形させる。ステップS104において、上記ステップS103で得られた変形後3Dオブジェクトモデルを、モデル出力部30により出力して、3次元オブジェクト生成処理ルーチンを終了する。   In the next step S103, the data of the 3D object model acquired in step S102 is transformed according to the attribute value identified in step S101. In step S104, the transformed 3D object model obtained in step S103 is output by the model output unit 30, and the three-dimensional object generation processing routine is terminated.

以上説明したように、第1の実施の形態に係る3次元オブジェクト生成装置によれば、キーボード等で入力されたテキストを解析し、実物体として仮想的に3次元オブジェクトを出力するため、ユーザが非常に容易なインタフェースから、3次元オブジェクトを得ることができる。また、入力されたテキストによって、3次元オブジェクトを変形させることができる。   As described above, according to the three-dimensional object generation device according to the first embodiment, the text input by the keyboard or the like is analyzed and the three-dimensional object is virtually output as a real object. A three-dimensional object can be obtained from a very easy interface. Further, the three-dimensional object can be deformed by the input text.

なお、上記の実施の形態では、階層構造に従って、3Dオブジェクトモデルに関するテキスト表現を、オブジェクト名に分類する場合を例に説明したが、これに限定されるものではない。3Dオブジェクトモデルに関するテキスト表現を、一階層に分類されたオブジェクト名に分類してもよい。   In the above-described embodiment, the description has been given of the case where the text expression related to the 3D object model is classified into the object name according to the hierarchical structure, but the present invention is not limited to this. The text representation related to the 3D object model may be classified into object names classified into one hierarchy.

また、後述する第2の実施の形態と同様に、3次元造形部によって、変形後3Dオブジェクトモデルを表わす3次元造形物を形成するようにしてもよい。   Moreover, you may make it form the three-dimensional modeling thing showing a 3D object model after a deformation | transformation by a three-dimensional modeling part similarly to 2nd Embodiment mentioned later.

また、後述する第2の実施の形態と同様に、音声入力を受け付けて、音声認識により入力されたテキストを解析するようにしてもよい。   Further, as in a second embodiment to be described later, a voice input may be received and a text input by voice recognition may be analyzed.

[第2の実施の形態] [Second Embodiment]

<システム構成> <System configuration>

次に、第2の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to the second embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第2の実施の形態では、音声入力を受け付けている点と、変形後3Dオブジェクトモデルに基づいて、3次元の造形物を形成している点とが、第1の実施の形態と異なっている。   The second embodiment is different from the first embodiment in that a voice input is received and a three-dimensional structure is formed based on the post-deformation 3D object model. .

図5に示すように、第2の実施の形態に係る3次元オブジェクト生成装置200は、入力部10、演算部220と、モデル出力部30と、3次元造形部230とを備えている。   As illustrated in FIG. 5, the three-dimensional object generation device 200 according to the second embodiment includes an input unit 10, a calculation unit 220, a model output unit 30, and a three-dimensional modeling unit 230.

入力部10は、3Dオブジェクトモデルに関する音声入力を受け付ける。例えば、「10cmの黄色い車」という音声入力を受け付ける。   The input unit 10 receives a voice input related to the 3D object model. For example, a voice input “10 cm yellow car” is accepted.

3次元造形部230は、演算部220による制御に従って、3次元の造形物を形成する。なお、3次元造形部230としては、従来既知の3次元プリンタを用いればよいため、詳細な説明を省略する。また、出力する方法は、実世界に3次元物体を構成できるものであれば、3次元プリンタをはじめ、特に種類は問わない。   The three-dimensional modeling unit 230 forms a three-dimensional modeled object according to control by the calculation unit 220. As the three-dimensional modeling unit 230, a conventionally known three-dimensional printer may be used, and detailed description thereof is omitted. The output method is not particularly limited as long as it can form a three-dimensional object in the real world.

演算部220は、音声認識部221、テキスト解析部21、3Dオブジェクトモデルデータベース22、モデル取得部23、モデル変形部24、及び3次元造形制御部225を備えている。   The calculation unit 220 includes a speech recognition unit 221, a text analysis unit 21, a 3D object model database 22, a model acquisition unit 23, a model deformation unit 24, and a 3D modeling control unit 225.

音声認識部221は、入力された音声に対して、音声認識処理を行い、テキスト(例えば、「10cmの黄色い車」)に変換する。なお、音声認識処理の内容については、従来の音声認識(例えば、隠れマルコフモデルやHMMを用いた音声認識)を使えばよく、特に方式等は問わない。   The voice recognition unit 221 performs voice recognition processing on the input voice and converts it into text (for example, “10 cm yellow car”). Note that the content of the speech recognition process may be conventional speech recognition (for example, speech recognition using a hidden Markov model or HMM), and any method may be used.

テキスト解析部21は、音声認識部221によって変換されたテキストから、対象となる3Dオブジェクトモデルに関するテキスト表現(例えば、「車」)及び属性値(例えば、「10cmの」、「黄色い」)を同定する。   The text analysis unit 21 identifies a text expression (for example, “car”) and attribute values (for example, “10 cm”, “yellow”) regarding the target 3D object model from the text converted by the speech recognition unit 221. To do.

モデル取得部23は、テキスト解析部21によって同定された3Dオブジェクトモデルに関するテキスト表現を、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名と紐づけ、当該オブジェクト名の3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得し、図6に示すように、モデル出力部30により、取得した3Dオブジェクトモデルを出力する。   The model acquisition unit 23 associates the text representation related to the 3D object model identified by the text analysis unit 21 with the object name stored in the 3D object model database 22, and converts the 3D object model data of the object name to 3D Obtained from the object model database 22 and the obtained 3D object model is output by the model output unit 30 as shown in FIG.

モデル変形部24は、モデル取得部23で得られた3Dオブジェクトモデルを、テキスト解析部21で同定した属性値にしたがって変形させて、図3に示すように、変形後3Dオブジェクトモデルを、モデル出力部30により出力する。また、モデル変形部24は、後段の3次元造形を高速化するため、変形後3Dオブジェクトモデルを意図的に分割する。例えば、変形後3Dオブジェクトモデルの大きさがもっとも短くなる軸方向を、3次元空間上の任意の軸方向から求め、求めた軸方向に、変形後3DオブジェクトモデルをN分割する。このとき、分割によりオブジェクト数が2倍よりも大きくならないように分割する。また、分割されたオブジェクトに対して、接着面が一意に定まるようマーキングしておく。   The model deformation unit 24 deforms the 3D object model obtained by the model acquisition unit 23 according to the attribute value identified by the text analysis unit 21, and outputs the deformed 3D object model as a model output as shown in FIG. Output by the unit 30. The model deforming unit 24 intentionally divides the post-deformation 3D object model in order to speed up the subsequent three-dimensional modeling. For example, the axial direction in which the size of the post-deformation 3D object model is the shortest is obtained from an arbitrary axial direction in the three-dimensional space, and the post-deformation 3D object model is divided into N in the obtained axial direction. At this time, the division is performed so that the number of objects does not become larger than double. In addition, marking is performed on the divided objects so that the adhesion surface is uniquely determined.

3次元造形制御部225は、モデル変形部24によって得られた変形後3Dオブジェクトモデルを表わす3次元の造形物(図7参照)が形成されるように、3次元造形部230を制御する。このとき、分割されたオブジェクト毎に、3次元の造形物が形成されるように、3次元造形部230を制御する。   The three-dimensional modeling control unit 225 controls the three-dimensional modeling unit 230 such that a three-dimensional modeled object (see FIG. 7) representing the post-deformation 3D object model obtained by the model deforming unit 24 is formed. At this time, the three-dimensional modeling unit 230 is controlled so that a three-dimensional model is formed for each divided object.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、第2の実施の形態に係る3次元オブジェクト生成装置200の作用について説明する。まず、生成したい3Dオブジェクトモデルに関するテキスト表現及び属性値を表わす音声が、3次元オブジェクト生成装置200に入力されると、3次元オブジェクト生成装置200によって、図8に示す3次元オブジェクト生成処理ルーチンが実行される。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, the operation of the three-dimensional object generation device 200 according to the second embodiment will be described. First, when a voice representing a text representation and an attribute value related to a 3D object model to be generated is input to the 3D object generation device 200, the 3D object generation processing routine shown in FIG. Is done. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、ステップS201において、入力された音声に対して音声認識処理を行い、音声をテキストに変換する。そして、ステップS101において、上記ステップS201で得られたテキストを解析し、3Dオブジェクトモデルに関するテキスト表現及び属性値を同定する。   First, in step S201, speech recognition processing is performed on the input speech to convert the speech into text. In step S101, the text obtained in step S201 is analyzed to identify text representations and attribute values related to the 3D object model.

そして、ステップS102において、上記ステップS101で同定した3Dオブジェクトモデルに関するテキスト表現を、3Dオブジェクトモデルデータベース22の3Dオブジェクトモデルのオブジェクト名の何れかに分類し、分類されたオブジェクト名に対応する3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得し、モデル出力部30により出力する。   In step S102, the text representation related to the 3D object model identified in step S101 is classified into any of the object names of the 3D object model in the 3D object model database 22, and the 3D object model corresponding to the classified object name is classified. Are obtained from the 3D object model database 22 and output by the model output unit 30.

次のステップS103では、上記ステップS102で取得した3Dオブジェクトモデルのデータを、上記ステップS101で同定した属性値に従って変形させて、モデル出力部30により出力する。   In the next step S103, the data of the 3D object model acquired in step S102 is transformed according to the attribute value identified in step S101 and output by the model output unit 30.

そして、ステップS204において、上記ステップS103で得られた変形後3Dオブジェクトモデルを表わす3次元の造形物が形成されるように、3次元造形部230を制御して、3次元オブジェクト生成処理ルーチンを終了する。   In step S204, the three-dimensional modeling unit 230 is controlled to finish the three-dimensional object generation processing routine so that the three-dimensional model representing the post-deformation 3D object model obtained in step S103 is formed. To do.

以上説明したように、第2の実施の形態に係る3次元オブジェクト生成装置によれば、音声認識で入力されたテキストを解析し、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。また、音声認識で入力されたテキストによって、3次元オブジェクトを変形させることができる。   As described above, according to the three-dimensional object generation device according to the second embodiment, in order to analyze a text input by speech recognition and form a three-dimensional structure in real space as a real object, A user can obtain a three-dimensional structure from an extremely easy interface. In addition, a three-dimensional object can be transformed by text input by voice recognition.

また、変形後3Dオブジェクトモデルを、分割によりオブジェクト数が2倍よりも大きくならないように、かつ、当該変形後3Dオブジェクトモデルの大きさがもっとも短くなる軸方向にN分割することにより、当該変形後3Dオブジェクトモデルを最小分割することができる。   Further, the post-deformation 3D object model is divided N times in the axial direction in which the size of the post-deformation 3D object model is the shortest, so that the number of objects does not become larger than twice due to the division. The 3D object model can be divided into minimum parts.

[第3の実施の形態] [Third Embodiment]

<システム構成> <System configuration>

次に、第3の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1の実施の形態及び第2の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to a third embodiment will be described. In addition, about the part which becomes the same structure as 1st Embodiment and 2nd Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第3の実施の形態では、既に3Dオブジェクトモデルが存在している状況において、音声入力を受け付けている点が、第2の実施の形態と異なっている。   The third embodiment is different from the second embodiment in that a voice input is accepted in a situation where a 3D object model already exists.

図9に示すように、第3の実施の形態に係る3次元オブジェクト生成装置300は、入力部10、演算部320と、モデル出力部30と、3次元造形部230とを備えている。   As illustrated in FIG. 9, the three-dimensional object generation device 300 according to the third embodiment includes an input unit 10, a calculation unit 320, a model output unit 30, and a three-dimensional modeling unit 230.

入力部10は、3Dオブジェクトモデルのデータの入力を受け付けると共に、当該3Dオブジェクトモデルの属性値に関する音声入力を受け付ける。例えば、車の3Dオブジェクトモデルのデータの入力を受け付けると共に、「車を黄色くして」という音声入力を受け付ける。また、モデル出力部30は、入力された3Dオブジェクトモデルを出力する。   The input unit 10 receives an input of 3D object model data and also receives an audio input related to an attribute value of the 3D object model. For example, an input of data of a 3D object model of a car is accepted, and a voice input “turn the car yellow” is accepted. The model output unit 30 outputs the input 3D object model.

演算部220は、音声認識部221、テキスト解析部321、モデル変形部324、及び3次元造形制御部225を備えている。   The calculation unit 220 includes a voice recognition unit 221, a text analysis unit 321, a model deformation unit 324, and a three-dimensional modeling control unit 225.

テキスト解析部321は、音声認識部221によって変換されたテキストから、対象となる3Dオブジェクトモデルに関する属性値を同定する。   The text analysis unit 321 identifies attribute values related to the target 3D object model from the text converted by the speech recognition unit 221.

モデル変形部324は、入力された3Dオブジェクトモデルを、テキスト解析部321で同定した属性値にしたがって変形させて、変形後3Dオブジェクトモデルを、モデル出力部30により出力する。   The model deforming unit 324 deforms the input 3D object model according to the attribute value identified by the text analyzing unit 321, and outputs the deformed 3D object model by the model output unit 30.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、本発明の第3の実施の形態に係る3次元オブジェクト生成装置300の作用について説明する。まず、3Dオブジェクトモデルのデータが、3次元オブジェクト生成装置300に入力されると、モデル出力部30により、入力された3Dオブジェクトモデルが出力される。そして、3Dオブジェクトモデルに関する属性値を表わす音声が、3次元オブジェクト生成装置300に入力されると、3次元オブジェクト生成装置300によって、図10に示す3次元オブジェクト生成処理ルーチンが実行される。なお、第2の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, the operation of the three-dimensional object generation device 300 according to the third embodiment of the present invention will be described. First, when 3D object model data is input to the three-dimensional object generation device 300, the input 3D object model is output by the model output unit 30. Then, when sound representing attribute values related to the 3D object model is input to the 3D object generation device 300, the 3D object generation processing routine shown in FIG. In addition, about the process similar to 2nd Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、ステップS201において、入力された音声に対して音声認識処理を行い、音声をテキストに変換する。そして、ステップS301において、上記ステップS201で得られたテキストを解析し、3Dオブジェクトモデルに関する属性値を同定する。   First, in step S201, speech recognition processing is performed on the input speech to convert the speech into text. In step S301, the text obtained in step S201 is analyzed to identify attribute values related to the 3D object model.

そして、ステップS302において、入力された3Dオブジェクトモデルのデータを、上記ステップS301で同定した属性値に従って変形させて、モデル出力部30により出力する。   In step S302, the input 3D object model data is transformed according to the attribute value identified in step S301, and is output by the model output unit 30.

そして、ステップS204において、上記ステップS302で得られた変形後3Dオブジェクトモデルを表わす3次元の造形物が形成されるように、3次元造形部230を制御して、3次元オブジェクト生成処理ルーチンを終了する。   In step S204, the three-dimensional modeling unit 230 is controlled to finish the three-dimensional object generation processing routine so that a three-dimensional model representing the post-deformation 3D object model obtained in step S302 is formed. To do.

以上説明したように、第3の実施の形態に係る3次元オブジェクト生成装置によれば、音声認識で入力されたテキストを解析し、3次元オブジェクトを変形させて、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。   As described above, according to the three-dimensional object generation device according to the third embodiment, the text input by speech recognition is analyzed, the three-dimensional object is deformed, and the three-dimensional object in the real space is analyzed. In order to form a three-dimensional structure, the user can obtain a three-dimensional structure from an extremely easy interface.

なお、上記の実施の形態では、音声入力を受け付ける場合を例に説明したが、これに限定されるものではなく、テキスト入力を受け付けるようにしてもよい。   In the above embodiment, the case where voice input is accepted has been described as an example. However, the present invention is not limited to this, and text input may be accepted.

また、変形後3Dオブジェクトモデルを表わす3次元造形物を形成せずに、変形後3Dオブジェクトモデルをモデル出力部により出力するだけであってもよい。   Further, the post-deformation 3D object model may be simply output by the model output unit without forming the three-dimensional structure representing the post-deformation 3D object model.

[第4の実施の形態] [Fourth Embodiment]

<システム構成> <System configuration>

次に、第4の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1の実施の形態及び第2の実施の形態と同様の構成となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to a fourth embodiment will be described. In addition, about the part which becomes the same structure as 1st Embodiment and 2nd Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第4の実施の形態では、音声入力のまま、3Dオブジェクトモデルのオブジェクト名に分類している点が、第2の実施の形態と異なっている。   The fourth embodiment is different from the second embodiment in that it is classified into the object name of the 3D object model with the voice input.

図11に示すように、第4の実施の形態に係る3次元オブジェクト生成装置400は、入力部10、演算部420と、モデル出力部30と、3次元造形部230とを備えている。   As illustrated in FIG. 11, the three-dimensional object generation device 400 according to the fourth embodiment includes an input unit 10, a calculation unit 420, a model output unit 30, and a three-dimensional modeling unit 230.

入力部10は、3Dオブジェクトモデルに関する音声入力を受け付ける。   The input unit 10 receives a voice input related to the 3D object model.

演算部420は、音声解析部421、3Dオブジェクトモデルデータベース22、モデル取得部423、モデル変形部24、及び3次元造形制御部225を備えている。   The calculation unit 420 includes a voice analysis unit 421, a 3D object model database 22, a model acquisition unit 423, a model deformation unit 24, and a three-dimensional modeling control unit 225.

音声解析部421は、入力された音声から、対象となる3Dオブジェクトモデルに関するオブジェクト名及び属性値を同定する。   The voice analysis unit 421 identifies the object name and attribute value related to the target 3D object model from the input voice.

具体的には、入力された音声信号を、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名に分類する。分類モデルについては、音声信号とクラスラベル(オブジェクト名)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。   Specifically, the input audio signal is classified into object names stored in the 3D object model database 22. As for the classification model, a plurality of learning data in which audio signals and class labels (object names) are associated one-to-one are prepared, and the classification model is learned based on the learning data.

また、入力された音声信号を、3Dオブジェクトモデルに関する属性値に分類する。分類モデルについては、音声信号とクラスラベル(属性値)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。   Also, the input audio signal is classified into attribute values related to the 3D object model. As for the classification model, a plurality of learning data in which a speech signal and a class label (attribute value) are associated one-to-one are prepared, and the classification model is learned based on the learning data.

モデル取得部423は、音声解析部421によって同定されたオブジェクト名の3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得し、モデル出力部30により、取得した3Dオブジェクトモデルを出力する。   The model acquisition unit 423 acquires the 3D object model data of the object name identified by the voice analysis unit 421 from the 3D object model database 22, and the model output unit 30 outputs the acquired 3D object model.

モデル変形部24は、モデル取得部423で得られた3Dオブジェクトモデルを、音声解析部421で同定した属性値にしたがって変形させて、変形後3Dオブジェクトモデルを、モデル出力部30により出力する。   The model deformation unit 24 deforms the 3D object model obtained by the model acquisition unit 423 according to the attribute value identified by the speech analysis unit 421, and outputs the deformed 3D object model by the model output unit 30.

なお、第4の実施の形態に係る3次元オブジェクト生成装置の他の構成及び作用については、第2の実施の形態と同様であるため、説明を省略する。   In addition, about the other structure and effect | action of the three-dimensional object production | generation apparatus which concern on 4th Embodiment, since it is the same as that of 2nd Embodiment, description is abbreviate | omitted.

このように、音声入力を解析し、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。   In this way, since the voice input is analyzed and the three-dimensional structure is formed in the real space as a real object, the user can obtain the three-dimensional structure from a very easy interface.

[第5の実施の形態] [Fifth Embodiment]

<システム構成> <System configuration>

次に、第5の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to a fifth embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

上記の第1の実施の形態〜第4の実施の形態では、テキスト入力又は音声による3次元オブジェクトの出力が可能となっている。しかし、その出力は1発話の内容に依存し、出力に対しさらに編集を施すということには対応していない。   In the first to fourth embodiments described above, it is possible to output a three-dimensional object by text input or voice. However, the output depends on the content of one utterance and does not correspond to further editing the output.

第5の実施の形態では、初期テキストに基づいて生成された3Dオブジェクトモデルを、対話テキストに基づいて編集する点が、第1の実施の形態と異なっている。   The fifth embodiment is different from the first embodiment in that the 3D object model generated based on the initial text is edited based on the dialogue text.

図12に示すように、第5の実施の形態に係る3次元オブジェクト生成装置500は、入力部10、演算部520と、モデル出力部30とを備えている。   As illustrated in FIG. 12, the three-dimensional object generation device 500 according to the fifth embodiment includes an input unit 10, a calculation unit 520, and a model output unit 30.

入力部10は、キーボード等により、3Dオブジェクトモデルに関する初期テキストのテキスト入力を受け付ける。例えば、「10cmの黄色い車」という初期テキストのテキスト入力を受け付ける。また、入力部10は、編集操作に関する対話テキストのテキスト入力を受け付ける。例えば、「もっと薄く」という対話テキストのテキスト入力を受け付ける。また、入力部10は、終了処理に紐付けられた終了テキストのテキスト入力を受け付ける。例えば、「終了」というテキスト入力を受け付ける。ここで、初期テキストとは、はじめに3Dオブジェクトモデル及びその属性値を3次元オブジェクト生成装置500に指示する目的のテキストであり、対話テキストとは、既に得られた初期テキストの解析結果に基づいて得られた3Dオブジェクトモデルに対し、3次元オブジェクト生成装置500と対話的に編集を行う目的のテキストである。なお、初期テキストは1回目の入力において1度だけ与えられ、3Dオブジェクトモデルを出力した後のテキストはすべて対話テキスト又は終了テキストであるとする。また、初期テキストが初期入力の一例であり、対話テキストが対話入力の一例である。また、3Dオブジェクトモデルがオブジェクトモデルの一例である。   The input unit 10 receives a text input of an initial text related to the 3D object model using a keyboard or the like. For example, an initial text input of “10 cm yellow car” is accepted. The input unit 10 also accepts text input of interactive text related to editing operations. For example, a text input of a dialog text “more thinly” is accepted. In addition, the input unit 10 receives a text input of an end text associated with the end process. For example, a text input “end” is accepted. Here, the initial text is text intended to instruct the 3D object model and its attribute value to the 3D object generation device 500 first, and the dialog text is obtained based on the analysis result of the initial text already obtained. This text is intended to be interactively edited with the 3D object generation apparatus 500 for the 3D object model that has been selected. Note that the initial text is given only once at the first input, and all the text after outputting the 3D object model is the dialog text or the end text. The initial text is an example of initial input, and the dialog text is an example of dialog input. A 3D object model is an example of an object model.

演算部20は、3Dオブジェクトモデルデータベース22、モデル取得部23、初期テキスト解析部521、モデル変形部524、対話テキスト解析部526及びモデル編集部528を備えている。   The calculation unit 20 includes a 3D object model database 22, a model acquisition unit 23, an initial text analysis unit 521, a model deformation unit 524, a dialog text analysis unit 526, and a model editing unit 528.

初期テキスト解析部521は、入力された初期テキストから、対象となる3Dオブジェクトモデルに関するテキスト表現(例えば「車」)を同定すると共に、入力されたテキストから、対象となる3Dオブジェクトモデルに関するテキスト表現に付加される属性値(例えば「10cmの」「黄色い」「5個の」等)を同定する。   The initial text analysis unit 521 identifies a text representation (for example, “car”) related to the target 3D object model from the input initial text, and converts the text representation related to the target 3D object model from the input text. The attribute value to be added (for example, “10 cm”, “yellow”, “5”, etc.) is identified.

モデル変形部524は、テキスト解析部21で属性値が同定された場合、モデル取得部23で得られた3Dオブジェクトモデルを、テキスト解析部21で同定した属性値にしたがって変形させ、図3に示すように、変形後3Dオブジェクトモデルを、メモリ(図示省略)に記憶すると共に、モデル出力部30により出力する。   When the text analysis unit 21 identifies the attribute value, the model transformation unit 524 transforms the 3D object model obtained by the model acquisition unit 23 according to the attribute value identified by the text analysis unit 21 and is shown in FIG. As described above, the deformed 3D object model is stored in a memory (not shown) and is output by the model output unit 30.

モデル変形部524は、テキスト解析部21で属性値が同定されなかった場合、モデル取得部23で得られた3Dオブジェクトモデルを、メモリ(図示省略)に記憶すると共に、モデル出力部30により出力する。   When the text analysis unit 21 does not identify the attribute value, the model transformation unit 524 stores the 3D object model obtained by the model acquisition unit 23 in a memory (not shown) and outputs it from the model output unit 30. .

対話テキスト解析部526は、図13に示すように、終了判定部550、単語抽出部552、操作候補抽出部554、単語選択部556、操作順位付け部557、連結部558、変化量算出部560、単語対操作変換用データベース570、自然文集合データベース572、キーワード対操作候補対応データベース574、及び連用詞データベース576を備えている。また、対話テキスト解析部526は、入力された編集操作に関するテキストに基づいて、編集内容を同定し、モデル編集部528へ出力する。また、終了処理に紐付けられたテキストに基づいて、処理を終了させる通知をモデル編集部528へ出力する。   As shown in FIG. 13, the dialog text analysis unit 526 includes an end determination unit 550, a word extraction unit 552, an operation candidate extraction unit 554, a word selection unit 556, an operation ranking unit 557, a connection unit 558, and a change amount calculation unit 560. , A word pair operation conversion database 570, a natural sentence set database 572, a keyword pair operation candidate correspondence database 574, and a conjunction particle database 576. Further, the dialog text analysis unit 526 identifies the editing content based on the input text relating to the editing operation, and outputs it to the model editing unit 528. In addition, based on the text associated with the end process, a notification to end the process is output to the model editing unit 528.

モデル編集部528は、メモリに記憶されている3Dオブジェクトモデルを読み出し、対話テキスト解析部526で同定した編集操作にしたがって編集し、編集後3Dオブジェクトモデルを、メモリ(図示省略)に記憶するとともに、モデル出力部30により出力する。なお、3Dオブジェクトモデルの編集は、モデル変形部524による3Dオブジェクトモデルの変形と同様に行えばよい。   The model editing unit 528 reads the 3D object model stored in the memory, edits it according to the editing operation identified by the dialog text analysis unit 526, stores the edited 3D object model in the memory (not shown), Output by the model output unit 30. The editing of the 3D object model may be performed in the same manner as the deformation of the 3D object model by the model deformation unit 524.

次に、図13に示す対話テキスト解析部526の構成について詳細に説明する。   Next, the configuration of the dialog text analysis unit 526 shown in FIG. 13 will be described in detail.

終了判定部550は、入力されたテキストが、終了処理に紐づけられた終了テキストであるか否かを判定する。具体的には、入力されたテキストが予め定められた終了処理に紐付けられたキーワードと一致するか否かを判定し、一致する場合には、終了テキストであると判定し、それ以外の場合には、対話テキストと判定する。なお、終了テキストが入力されたと判定された場合、処理の終了通知をモデル編集部528へ出力する。一方、対話テキストが入力されたと判定された場合、単語抽出部552の処理へ移行する。   The end determination unit 550 determines whether or not the input text is an end text associated with the end process. Specifically, it is determined whether or not the input text matches a keyword associated with a predetermined end process. If they match, it is determined that the input text is the end text, otherwise Is determined to be dialogue text. When it is determined that the end text has been input, a process end notification is output to the model editing unit 528. On the other hand, when it is determined that the dialogue text has been input, the process proceeds to the processing of the word extraction unit 552.

単語抽出部552は、終了判定部550において入力されたテキストが対話テキストと判定された場合、入力された対話テキストについて形態素解析を行い、連用詞(例えば、もっと)と編集操作を表す単語(例えば、薄く)の各々を抽出する。具体的には、一般的な系列ラベリング(HMMやCRF)を用いて、連用詞と編集操作を表す単語の各々を抽出する。なお、ルールベースで、連用詞と編集操作を表す単語の各々を抽出するようにしてもよい。   When the text input by the end determination unit 550 is determined to be a dialog text, the word extraction unit 552 performs a morphological analysis on the input dialog text, and uses a verb (for example, more) and a word (for example, a word representing an editing operation). , Thin) each. Specifically, each of the word representing the conjunction and the editing operation is extracted using general sequence labeling (HMM or CRF). In addition, you may make it extract each of the word which represents a conjunction and a editing operation by a rule base.

操作候補抽出部554は、単語抽出部552において抽出した編集操作を表す単語と、単語対操作変換用データベース570に記憶されている図14に示すような単語対操作変換表とに基づいて、入力された対話テキストが表す編集操作候補を抽出する。具体的には、例えば、単語抽出部552において抽出された編集操作を表す単語「薄く」が抽出された場合、単語対操作変換用データベース「薄く」という単語に対応付けられている編集操作候補「色操作」及び「形状操作(厚み変化)」の2つを、編集操作候補として抽出する。なお、編集操作候補として1つの編集操作候補が抽出された場合には、当該編集操作候補を、編集操作として同定する。   The operation candidate extraction unit 554 is input based on the word representing the editing operation extracted by the word extraction unit 552 and the word pair operation conversion table as shown in FIG. 14 stored in the word pair operation conversion database 570. The editing operation candidate represented by the dialogue text is extracted. Specifically, for example, when the word “light” representing the editing operation extracted by the word extraction unit 552 is extracted, the editing operation candidate “associated with the word“ light ”for the word-to-operation conversion database“ “Color operation” and “shape operation (thickness change)” are extracted as editing operation candidates. When one editing operation candidate is extracted as an editing operation candidate, the editing operation candidate is identified as an editing operation.

単語選択部556は、初期テキスト解析部521から入力される初期テキストの解析結果に複数の単語が含まれる場合、初期テキスト解析部521から入力される初期テキストの解析結果と、単語抽出部552において抽出された編集操作候補を表す単語と、自然文集合データベース572に記憶されている予め定められた自然文の文書集合とに基づいて、初期テキストに含まれる単語から、編集対象となる単語を選択する。なお、操作候補抽出部554において抽出された編集操作候補が1つである場合には、単語選択部556においての処理は行われない。   When a plurality of words are included in the analysis result of the initial text input from the initial text analysis unit 521, the word selection unit 556 determines the analysis result of the initial text input from the initial text analysis unit 521 and the word extraction unit 552. Select a word to be edited from words included in the initial text, based on the extracted word representing the editing operation candidate and a predetermined natural sentence document set stored in the natural sentence set database 572 To do. If there is one editing operation candidate extracted by the operation candidate extraction unit 554, processing in the word selection unit 556 is not performed.

具体的には、初期テキスト解析部521から入力される初期テキストの解析結果に複数の単語が含まれる場合(初期テキストが複数の単語を含む場合)、初期テキスト内の単語の各々と、単語抽出部552において抽出された編集操作を表す単語との間についての、自然文集合データベース572に記憶されている自然文の文書集合における単語間の共起関係(2つの単語が共起する文の数)を用いて、初期テキスト内の単語から、編集対象となる単語を選択する。具体的には、初期テキスト中に複数の単語「車」及び「赤」が存在する場合には、初期テキスト中の単語「車」と、単語抽出部552において抽出された編集操作を表す単語「薄い」との単語ペアを用いて、自然文集合データベース572に記憶されている文書集合における当該単語ペアが共起する文を検索して、検索結果に含まれる文の数を算出し、また、初期テキスト中の単語「赤」と、単語抽出部552において抽出された編集操作を表す単語「薄い」との単語ペアを用いて、自然文集合データベース572に記憶されている文書集合における当該単語ペアが共起する文を検索し、検索結果に含まれる文の数を算出する。そして、算出された文の数を比較し、共起する文の数が多い方の単語ペアに含まれる、初期テキスト中の単語を、編集対象となる単語として選択する。本実施の形態においては、例えば、単語「車」と単語「薄い」との単語ペアの共起頻度を1回、単語「赤」と単語「薄い」との単語ペアの共起頻度を100回として、単語「赤」を選択する。   Specifically, when the analysis result of the initial text input from the initial text analysis unit 521 includes a plurality of words (when the initial text includes a plurality of words), each of the words in the initial text, and word extraction The co-occurrence relationship between words in the natural sentence document set stored in the natural sentence set database 572 (the number of sentences in which two words co-occur) with respect to the word representing the editing operation extracted in the section 552 ) To select a word to be edited from words in the initial text. Specifically, when there are a plurality of words “car” and “red” in the initial text, the word “car” in the initial text and the word “representing the editing operation extracted by the word extraction unit 552”. Search for sentences in which the word pair co-occurs in the document set stored in the natural sentence set database 572 using the word pair “thin”, and calculate the number of sentences included in the search results; Using the word pair of the word “red” in the initial text and the word “light” representing the editing operation extracted by the word extraction unit 552, the word pair in the document set stored in the natural sentence set database 572 Is searched, and the number of sentences included in the search result is calculated. Then, the calculated number of sentences is compared, and a word in the initial text included in the word pair having the larger number of co-occurring sentences is selected as a word to be edited. In the present embodiment, for example, the co-occurrence frequency of the word pair of the word “car” and the word “thin” is once, and the co-occurrence frequency of the word pair of the word “red” and the word “thin” is 100 times. Select the word “red”.

また、単語選択部556は、初期テキストの解析結果に1つの単語のみが含まれる場合、当該単語を、編集対象となる単語として選択する。   In addition, when only one word is included in the analysis result of the initial text, the word selection unit 556 selects the word as a word to be edited.

操作順位付け部557は、単語選択部556において選択された単語と、操作候補抽出部554において抽出された2つ以上の編集操作候補と、単語抽出部552において抽出された編集操作を表す単語と、キーワード対操作候補対応データベース574に記憶されているキーワード対操作候補対応表とに基づいて、編集操作候補の順位付けを行う。なお、操作候補抽出部554において抽出された編集操作候補が1つである場合には、操作順位づけ部557においての処理は行われない。   The operation ranking unit 557 includes a word selected by the word selection unit 556, two or more editing operation candidates extracted by the operation candidate extraction unit 554, and a word representing the editing operation extracted by the word extraction unit 552. The editing operation candidates are ranked based on the keyword-to-operation candidate correspondence table stored in the keyword-to-operation candidate correspondence database 574. If there is one editing operation candidate extracted by the operation candidate extraction unit 554, the operation ranking unit 557 does not perform processing.

具体的には、単語選択部556において選択された単語と、単語抽出部552において抽出された編集対象を表す単語とのペアに基づいて、キーワード対操作候補対応データベース574に記憶されているキーワード対操作候補対応表を用いて、操作候補抽出部554において抽出された編集操作候補の各々が編集操作として適切か、順位付けを行う。具体的には、単語選択部556において選択された単語「赤」と単語抽出部552において抽出された編集操作を表す単語「薄い」のペア(あるいは単語「赤」のみ)が、操作候補抽出部554において抽出した編集操作候補「色操作」、及び「形状操作」のいずれと関連が深いかを、図15に示すようなキーワード対操作候補対応表を用いて順位付けする。図15のキーワード対操作候補対応表の例においては、単語「赤」と編集操作を表す単語「薄い」のペアに対し、色操作が編集操作として関係する度合いは、0.9であり、形状操作が編集操作として関係する度合いが0.1であることから、当該ペアは色操作と関係が深いとして、操作候補抽出部554において抽出された操作候補「色操作」を1位、「形状操作」を2位として順位付けし、1位の編集操作候補「色操作」を編集操作として同定する。   Specifically, based on the pair of the word selected by the word selection unit 556 and the word representing the edit target extracted by the word extraction unit 552, the keyword pair stored in the keyword pair operation candidate correspondence database 574 is stored. Using the operation candidate correspondence table, ranking is performed as to whether or not each of the editing operation candidates extracted by the operation candidate extraction unit 554 is appropriate as an editing operation. Specifically, a pair of the word “red” selected by the word selection unit 556 and the word “light” representing the editing operation extracted by the word extraction unit 552 (or only the word “red”) is an operation candidate extraction unit. Which of the editing operation candidates “color operation” and “shape operation” extracted in 554 is deeply related is ranked using a keyword-to-operation candidate correspondence table as shown in FIG. In the example of the keyword pair operation candidate correspondence table in FIG. 15, the degree that the color operation is related to the editing operation for the pair of the word “red” and the word “light” representing the editing operation is 0.9, Since the degree that the operation is related to the editing operation is 0.1, the pair is deeply related to the color operation, and the operation candidate “color operation” extracted by the operation candidate extraction unit 554 is ranked first, “shape operation” "Is ranked second, and the first editing operation candidate" color operation "is identified as the editing operation.

変化量算出部560は、単語抽出部552において抽出された連用詞を表す単語から変化量を算出する。具体的には、例えば、単語抽出部552において連用詞「もっと」が抽出された場合、連用詞「もっと」に対応する変化量を連用詞データベース576に記憶されている連用詞変化量表から抽出する。例えば、連用詞変化量表に「もっと」→2倍、「もう少し」→1.5倍が定義されている場合には、連用詞「もっと」に対応する変化量は2倍となる。   The change amount calculation unit 560 calculates the change amount from the word representing the conjunctions extracted by the word extraction unit 552. Specifically, for example, when the word “more” is extracted in the word extraction unit 552, the amount of change corresponding to the conjunction “more” is extracted from the conjunction particle change amount table stored in the conjunction particle database 576. To do. For example, when “more” → double and “more” → 1.5 times are defined in the conjunction particle change amount table, the variation corresponding to the conjunction “more” is doubled.

連結部558は、操作候補抽出部554又は操作順位付け部557において編集操作として同定された編集操作と、変化量算出部560において算出された変化量とを連結し、変化量を含む編集操作を同定し、モデル編集部528へ出力する。具体的には、例えば編集操作が「色操作」であり、かつ変化量算出部560において「2倍」が算出された場合、変形量を含む編集操作として、「色の彩度を2倍」を同定する。   The connecting unit 558 connects the editing operation identified as the editing operation by the operation candidate extracting unit 554 or the operation ranking unit 557 and the change amount calculated by the change amount calculating unit 560, and performs an edit operation including the change amount. Identify and output to the model editing unit 528. Specifically, for example, when the editing operation is a “color operation” and the change amount calculation unit 560 calculates “double”, the editing operation including the deformation amount is “double the color saturation”. Is identified.

単語対操作変換用データベース570には、特定の単語と関係を有する編集操作候補が定義されている図14に示すような単語対操作変換表が記憶されている。なお、単語対操作変換表は、人手で構築したものでもよいし、学習データ等から自動的に獲得したものでもよい。   The word pair operation conversion database 570 stores a word pair operation conversion table as shown in FIG. 14 in which editing operation candidates having a relationship with a specific word are defined. The word pair operation conversion table may be constructed manually or may be automatically obtained from learning data or the like.

自然文集合データベース572は、複数の自然文を含む文書の集合が記憶されている。   The natural sentence set database 572 stores a set of documents including a plurality of natural sentences.

キーワード対操作候補対応データベース574は、特定の単語ペアと関係を有する編集操作候補を定義しているキーワード対操作候補対応表が記憶されている。なお、キーワード対操作候補対応表は、人手で構築したものでもよいし、学習データ等から自動的に獲得したものでもよい。   The keyword-to-operation candidate correspondence database 574 stores a keyword-to-operation candidate correspondence table that defines editing operation candidates having a relationship with a specific word pair. The keyword-to-operation candidate correspondence table may be constructed manually or may be automatically obtained from learning data or the like.

連用詞データベース576は、特定の連用詞と変化量を定義している連用詞変化量表を記憶している。なお、連用詞変化量表は、人手で構築したものでもよいし、学習データ等から自動的に獲得したものでもよい。   The conjunction particle database 576 stores a conjunction particle change amount table defining specific conjunctions and change amounts. Note that the continuum change amount table may be constructed manually or automatically obtained from learning data or the like.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、第5の実施の形態に係る3次元オブジェクト生成装置500の作用について説明する。まず、生成したい3Dオブジェクトモデルに関する初期テキストが、3次元オブジェクト生成装置500に入力されると、3次元オブジェクト生成装置500によって、図16及び図17に示す3次元オブジェクト編集処理ルーチンが実行される。   Next, the operation of the three-dimensional object generation device 500 according to the fifth embodiment will be described. First, when initial text relating to a 3D object model to be generated is input to the three-dimensional object generation device 500, the three-dimensional object generation device 500 executes a three-dimensional object editing processing routine shown in FIGS.

まず、ステップS501において、入力された初期テキストを解析し、3Dオブジェクトモデルに関するテキスト表現及び属性値を同定する。   First, in step S501, the input initial text is analyzed to identify the text representation and attribute values related to the 3D object model.

そして、ステップS102において、上記ステップS501で同定した3Dオブジェクトモデルに関するテキスト表現を、予め用意した分類モデル及び階層構造に従って、3Dオブジェクトモデルデータベース22の3Dオブジェクトモデルのオブジェクト名の何れかに分類し、分類されたオブジェクト名に対応する3Dオブジェクトモデルのデータを、3Dオブジェクトモデルデータベース22から取得する。   In step S102, the text representation related to the 3D object model identified in step S501 is classified into any of the object names of the 3D object model in the 3D object model database 22 according to the classification model and hierarchical structure prepared in advance, and classified. Data of the 3D object model corresponding to the object name is acquired from the 3D object model database 22.

次のステップS103では、上記ステップS102で取得した3Dオブジェクトモデルのデータを、上記ステップS501で同定した属性値に従って変形させる。ステップS104において、上記ステップS103で得られた変形後3Dオブジェクトモデルを、モデル出力部30により出力する。なお、上記ステップS101で属性値が同定されなかった場合には、上記ステップS102で取得した3Dオブジェクトモデルを、モデル出力部30により出力する。   In the next step S103, the data of the 3D object model acquired in step S102 is transformed according to the attribute value identified in step S501. In step S <b> 104, the model output unit 30 outputs the transformed 3D object model obtained in step S <b> 103. If no attribute value is identified in step S101, the model output unit 30 outputs the 3D object model acquired in step S102.

次に、ステップS502において、連用詞データベース576に記憶されている連用詞変化量表を読み込む。   Next, in step S502, the continuous verb change amount table stored in the continuous verb database 576 is read.

次に、ステップS504において、単語対操作変換用データベース570に記憶されている単語対操作変換表を読み込む。   In step S504, the word pair operation conversion table stored in the word pair operation conversion database 570 is read.

次に、ステップS508において、キーワード対操作候補対応データベース574に記憶されているキーワード対操作候補対応表を読み込む。   In step S508, the keyword / operation candidate correspondence table stored in the keyword / operation candidate correspondence database 574 is read.

次に、ステップS510において、上記ステップS104で出力した変形後3Dオブジェクトモデル又は3Dオブジェクトモデル、あるいは後述するステップS528で出力した編集後3Dオブジェクトモデルに対して入力されるテキストを受け付ける。なお、テキストが受け付けられるまで、ステップS510において処理を待機する。   Next, in step S510, text input to the modified 3D object model or 3D object model output in step S104 or the edited 3D object model output in step S528 described later is received. Note that the process waits in step S510 until the text is accepted.

次に、ステップS512において、ステップS510で受け付けたテキストが終了テキストであるか否かの判定を行う。受け付けたテキストが終了テキストである場合には、処理を終了し、一方、受け付けたテキストが終了テキストでない場合には、受け付けたテキストが対話テキストであると判定し、ステップS514へ移行する。   Next, in step S512, it is determined whether or not the text received in step S510 is an end text. If the accepted text is an end text, the process is terminated. On the other hand, if the accepted text is not an end text, it is determined that the accepted text is a dialog text, and the process proceeds to step S514.

次に、ステップS514において、ステップS510で入力された対話テキストについて形態素解析を行い、連用詞(例えば、もっと)と編集操作を表す単語(例えば、薄く)の各々を抽出する。   Next, in step S514, a morphological analysis is performed on the dialog text input in step S510, and each of a conjunction (for example, more) and a word (for example, light) representing an editing operation are extracted.

次に、ステップS516において、ステップS514で抽出した編集操作を表す単語と、ステップS504で読み込んだ単語対操作変換表とに基づいて、入力された対話テキストが表す編集操作候補を抽出する。なお、抽出した編集操作候補が1つである場合には、当該編集操作候補を編集操作として同定する。   Next, in step S516, based on the word representing the editing operation extracted in step S514 and the word-to-operation conversion table read in step S504, editing operation candidates represented by the input dialogue text are extracted. If there is one extracted editing operation candidate, the editing operation candidate is identified as an editing operation.

次に、ステップS518において、ステップS501で解析した初期テキストの解析結果と、ステップS514で抽出した編集操作を表す単語と、自然文集合データベース572に記憶されている自然文の文書集合とに基づいて、初期テキストに含まれる単語から、編集対象となる単語を選択する。なお、ステップS516で抽出された編集操作候補が1つである場合には、当該ステップS518の処理は行われない。   Next, in step S518, based on the analysis result of the initial text analyzed in step S501, the word representing the editing operation extracted in step S514, and the natural sentence document set stored in the natural sentence set database 572. The word to be edited is selected from the words included in the initial text. If there is one editing operation candidate extracted in step S516, the process in step S518 is not performed.

次に、ステップS520において、ステップS518で選択した単語と、ステップS516で抽出した編集操作候補の各々と、ステップS514で抽出した編集操作を表す単語と、ステップS508で読み込んだキーワード対操作候補対応表とに基づいて、編集操作候補の順位付けを行う。なお、ステップS516で抽出された編集操作候補が1つである場合には、当該ステップS520の処理は行われない。また、1位となった編集操作候補を編集操作として同定する。   Next, in step S520, the word selected in step S518, each of the editing operation candidates extracted in step S516, the word representing the editing operation extracted in step S514, and the keyword-to-operation candidate correspondence table read in step S508 Based on the above, the editing operation candidates are ranked. If there is one editing operation candidate extracted in step S516, the processing in step S520 is not performed. Further, the editing operation candidate that is ranked first is identified as an editing operation.

次に、ステップS522において、ステップS514で抽出した連用詞と、ステップS502において読み込んだ連用詞変化量表とに基づいて、変化量を算出する。   Next, in step S522, the amount of change is calculated based on the conjunctions extracted in step S514 and the conjunctions change amount table read in step S502.

次に、ステップS524において、ステップS516又はステップS520で同定された編集操作と、ステップS522で算出された変化量を連結して、変化量を含む編集操作を同定する。   Next, in step S524, the editing operation identified in step S516 or step S520 and the change amount calculated in step S522 are connected to identify an editing operation including the change amount.

次に、ステップS526において、ステップS103で得られた変形後3Dオブジェクトモデル又は3Dオブジェクトモデル、あるいは前回の処理のステップS526で得られた編集後3Dオブジェクトモデルを、ステップS524で同定した編集操作に従って編集する。   Next, in step S526, the modified 3D object model or 3D object model obtained in step S103 or the edited 3D object model obtained in step S526 of the previous process is edited according to the editing operation identified in step S524. To do.

次に、ステップS528において、ステップS526において編集した編集後3Dオブジェクトモデルをモデル出力部30により出力し、ステップS510へ移行する。   Next, in step S528, the edited 3D object model edited in step S526 is output by the model output unit 30, and the process proceeds to step S510.

以上説明したように、第5の実施の形態に係る3次元オブジェクト生成装置によれば、キーボード等で入力された初期テキストを解析し、実物体として仮想的に3次元オブジェクトを出力するため、ユーザが非常に容易なインタフェースから、3次元オブジェクトを得ることができる。また、入力された初期テキストによって、3次元オブジェクトを変形させることができる。さらに、入力された対話テキストによって、初期テキスト、又は対話テキストにより得られた仮想的な3次元オブジェクトを編集することができる。   As described above, according to the three-dimensional object generation device according to the fifth embodiment, the initial text input with the keyboard or the like is analyzed, and the three-dimensional object is virtually output as a real object. A three-dimensional object can be obtained from a very easy interface. Further, the three-dimensional object can be deformed by the input initial text. Furthermore, the initial text or the virtual three-dimensional object obtained by the dialog text can be edited by the input dialog text.

また、対話テキストから、編集対象となる単語がどの編集操作に紐づいているかを同定/ランキングしたうえで、3次元オブジェクトに対する編集操作を同定することができる。   Further, it is possible to identify the editing operation for the three-dimensional object after identifying / ranking which editing operation is associated with the word to be edited from the dialogue text.

なお、上記の実施の形態では、階層構造に従って、3Dオブジェクトモデルに関するテキスト表現を、オブジェクト名に分類する場合を例に説明したが、これに限定されるものではない。3Dオブジェクトモデルに関するテキスト表現を、一階層に分類されたオブジェクト名に分類してもよい。   In the above-described embodiment, the description has been given of the case where the text expression related to the 3D object model is classified into the object name according to the hierarchical structure, but the present invention is not limited to this. The text representation related to the 3D object model may be classified into object names classified into one hierarchy.

また、後述する第6の実施の形態と同様に、3次元造形部によって、編集後3Dオブジェクトモデルを表わす3次元造形物を形成するようにしてもよい。   Moreover, you may make it form the three-dimensional modeling thing showing a 3D object model after editing by a three-dimensional modeling part similarly to 6th Embodiment mentioned later.

また、後述する第6の実施の形態と同様に、音声入力を受け付けて、音声認識により入力されたテキストを解析するようにしてもよい。   Further, as in a sixth embodiment to be described later, a voice input may be received and a text input by voice recognition may be analyzed.

また、対話テキストは、ユーザ側からの一方的な断続的発話として入力されてもよいし、システム側から何かしらのリアクションを間において入力されてもよい。   In addition, the dialog text may be input as a one-way intermittent utterance from the user side, or may be input in the middle of some reaction from the system side.

また、初期テキスト中の単語と、単語抽出部552において抽出された編集操作を表す単語との単語ペアを用いて、自然文の文書集合における当該単語ペアが共起する文を検索して、当該単語ペアが共起する文の数を算出する場合について説明したが、この限りでない。例えば、事前に初期テキスト中の特定の単語と、特定の編集操作を表す単語ペアの各々について、当該単語ペアが共起する文の数を求めておき、初期テキスト中の単語と、単語抽出部552において抽出された編集操作を表す単語との単語ペアが共起する文の数を取得するようにしてもよい。   Further, by using a word pair of a word in the initial text and a word representing an editing operation extracted by the word extraction unit 552, a sentence in which the word pair co-occurs in a natural sentence document set is searched, Although the case of calculating the number of sentences in which word pairs co-occur has been described, this is not restrictive. For example, for each of a specific word in the initial text and a word pair representing a specific editing operation, the number of sentences in which the word pair co-occurs is obtained in advance, and the word in the initial text and the word extraction unit The number of sentences in which word pairs with the word representing the editing operation extracted in 552 co-occur may be acquired.

また、後述する第9の実施の形態と同様に、入力されたテキストを受け付けて、初期テキストであるか、又は対話テキストであるかを判定するようにしてもよい。   Similarly to a ninth embodiment to be described later, an input text may be accepted to determine whether the text is an initial text or a dialog text.

[第6の実施の形態] [Sixth Embodiment]

<システム構成> <System configuration>

次に、第6の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1〜第5の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to a sixth embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st-5th Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第6の実施の形態では、音声入力を受け付けている点と、編集後3Dオブジェクトモデルに基づいて、3次元の造形物を形成している点とが、第5の実施の形態と異なっている。   The sixth embodiment is different from the fifth embodiment in that a voice input is accepted and a three-dimensional structure is formed based on the edited 3D object model. .

図18に示すように、第6の実施の形態に係る3次元オブジェクト生成装置600は、入力部10と、演算部620と、モデル出力部30と、3次元造形部230とを備えている。   As illustrated in FIG. 18, the three-dimensional object generation device 600 according to the sixth embodiment includes an input unit 10, a calculation unit 620, a model output unit 30, and a three-dimensional modeling unit 230.

入力部10は、3Dオブジェクトモデルに関する初期テキストを表す音声入力を受け付ける。例えば、「10cmの黄色い車」という初期テキストを表す音声入力を受け付ける。また、入力部10は、編集操作に関する対話テキストを表す音声入力を受け付ける。例えば、「もっと薄く」という対話テキストを表す音声入力を受け付ける。また、入力部10は、終了処理に関する終了テキストを表す音声入力を受け付ける。例えば、「終了」という終了テキストを表す音声入力を受け付ける。なお、1回目(3Dオブジェクトモデルの出力前)に入力される音声入力は、3Dオブジェクトモデルに関する初期テキストを表す音声入力であり、3Dオブジェクトモデルを出力した後に入力される音声入力は、編集操作に関する対話テキストを表す音声入力、又は、終了処理に関する終了テキストを表す音声入力とする。   The input unit 10 receives a voice input representing initial text related to the 3D object model. For example, a voice input representing an initial text “10 cm yellow car” is accepted. In addition, the input unit 10 receives a voice input representing a dialog text related to an editing operation. For example, a voice input representing a dialog text “more thinly” is accepted. In addition, the input unit 10 receives a voice input representing an end text related to the end process. For example, a voice input representing an end text “end” is received. Note that the audio input input for the first time (before the output of the 3D object model) is an audio input representing the initial text related to the 3D object model, and the audio input input after outputting the 3D object model is related to the editing operation. It is assumed that the voice input represents a dialog text or the voice input representing the end text related to the end process.

演算部220は、音声認識部221、初期テキスト解析部521、3Dオブジェクトモデルデータベース22、モデル取得部23、モデル変形部524、3次元造形制御部225、対話テキスト解析部626、及びモデル編集部528を備えている。   The calculation unit 220 includes a voice recognition unit 221, an initial text analysis unit 521, a 3D object model database 22, a model acquisition unit 23, a model transformation unit 524, a 3D modeling control unit 225, a dialog text analysis unit 626, and a model editing unit 528. It has.

音声認識部221は、入力された音声に対して、音声認識処理を行い、テキスト(例えば、「10cmの黄色い車」)に変換する。なお、音声認識処理の内容については、従来の音声認識(例えば、隠れマルコフモデルやHMMを用いた音声認識)を使えばよく、特に方式等は問わない。なお、3Dオブジェクトモデルに関する初期テキストを表す音声入力についての音声認識結果は、初期テキスト解析部521へ出力され、編集操作又は終了処理に関する対話テキスト又は終了テキストを表す音声入力についての音声認識結果は、対話テキスト解析部626へ出力される。   The voice recognition unit 221 performs voice recognition processing on the input voice and converts it into text (for example, “10 cm yellow car”). Note that the content of the speech recognition process may be conventional speech recognition (for example, speech recognition using a hidden Markov model or HMM), and any method may be used. Note that the speech recognition result for the speech input representing the initial text related to the 3D object model is output to the initial text analysis unit 521, and the speech recognition result for the speech input representing the dialog text or the termination text related to the editing operation or the termination process is It is output to the dialog text analysis unit 626.

モデル編集部528は、メモリに記憶されている3Dオブジェクトモデル、変形後3Dオブジェクトモデル、又は編集後3Dオブジェクトモデルを読み出し、対話テキスト解析部526で同定した編集操作にしたがって編集して、編集後3Dオブジェクトモデルをメモリ(図示省略)に記憶するとともに、モデル出力部30により出力する。また、モデル編集部528は、後段の3次元造形を高速化するため、編集後3Dオブジェクトモデルを意図的に分割する。例えば、編集後3Dオブジェクトモデルの大きさがもっとも短くなる軸方向を、3次元空間上の任意の軸方向から求め、求めた軸方向に、編集後3DオブジェクトモデルをN分割する。このとき、分割によりオブジェクト数が2倍よりも大きくならないように分割する。また、分割されたオブジェクトに対して、接着面が一意に定まるようマーキングしておく。なお、対話テキスト解析部526から処理を終了させる通知を受け付けた場合には、メモリに最終的に記憶されている3Dオブジェクトモデル、変形後3Dオブジェクトモデル、又は編集後3Dオブジェクトモデルを、3次元造形制御部225に出力する。   The model editing unit 528 reads out the 3D object model, the transformed 3D object model, or the edited 3D object model stored in the memory, and edits the edited 3D object model according to the editing operation identified by the dialog text analysis unit 526. The object model is stored in a memory (not shown) and output by the model output unit 30. Further, the model editing unit 528 intentionally divides the edited 3D object model in order to speed up the subsequent three-dimensional modeling. For example, the axial direction in which the size of the edited 3D object model is the shortest is obtained from an arbitrary axial direction in the three-dimensional space, and the edited 3D object model is divided into N in the obtained axial direction. At this time, the division is performed so that the number of objects does not become larger than double. In addition, marking is performed on the divided objects so that the adhesion surface is uniquely determined. When a notification to end the process is received from the dialog text analysis unit 526, the 3D object model, the modified 3D object model, or the edited 3D object model that is finally stored in the memory is converted into the three-dimensional modeling. Output to the control unit 225.

3次元造形制御部225は、モデル編集部528から入力された、3Dオブジェクトモデル、変形後3Dオブジェクトモデル、又は編集後3Dオブジェクトモデルを表わす3次元の造形物が形成されるように、3次元造形部230を制御する。このとき、分割されたオブジェクト毎に、3次元の造形物が形成されるように、3次元造形部230を制御する。   The three-dimensional modeling control unit 225 performs the three-dimensional modeling so that a three-dimensional model representing the 3D object model, the transformed 3D object model, or the edited 3D object model input from the model editing unit 528 is formed. The unit 230 is controlled. At this time, the three-dimensional modeling unit 230 is controlled so that a three-dimensional model is formed for each divided object.

対話テキスト解析部626は、図19に示すように、終了判定部550、単語抽出部552、操作候補抽出部554、単語選択部556、操作順位付け部557、連結部558、変化量算出部560、単語対操作変換用データベース570、自然文集合データベース572、キーワード対操作候補対応データベース574、及び連用詞データベース576を備えている。   As shown in FIG. 19, the dialog text analysis unit 626 includes an end determination unit 550, a word extraction unit 552, an operation candidate extraction unit 554, a word selection unit 556, an operation ranking unit 557, a connection unit 558, and a change amount calculation unit 560. , A word pair operation conversion database 570, a natural sentence set database 572, a keyword pair operation candidate correspondence database 574, and a conjunction particle database 576.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、第6の実施の形態に係る3次元オブジェクト生成装置600の作用について説明する。まず、生成したい3Dオブジェクトモデルに関するテキスト表現及び属性値を含む初期テキストを表わす音声が、3次元オブジェクト生成装置600に入力されると、3次元オブジェクト生成装置600によって、図20及び図21に示す3次元オブジェクト編集処理ルーチンが実行される。なお、第1〜第5の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, the operation of the three-dimensional object generation device 600 according to the sixth embodiment will be described. First, when speech representing an initial text including a text representation and an attribute value regarding a 3D object model to be generated is input to the 3D object generation device 600, the 3D object generation device 600 causes the 3D shown in FIG. 20 and FIG. A dimension object edit processing routine is executed. In addition, about the process similar to the 1st-5th embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップS600において、入力された音声に対して音声認識処理を行い、音声をテキストに変換する。なお、音声が入力されるまでステップS600において処理を待機する。   In step S600, speech recognition processing is performed on the input speech to convert the speech into text. The process waits in step S600 until a voice is input.

ステップS204において、上記ステップS103で得られた変形後3Dオブジェクトモデル又は3Dオブジェクトモデル、あるいは上記ステップS526で得られた編集後3Dオブジェクトモデルを表わす3次元の造形物が形成されるように、3次元造形部230を制御して、3次元オブジェクト編集処理ルーチンを終了する。   In step S204, the three-dimensional object is formed so that a three-dimensional object representing the post-deformation 3D object model or the 3D object model obtained in step S103 or the edited 3D object model obtained in step S526 is formed. The modeling unit 230 is controlled and the three-dimensional object editing process routine is terminated.

以上説明したように、第6の実施の形態に係る3次元オブジェクト生成装置によれば、音声認識で入力されたテキストを解析し、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。また、音声認識で入力されたテキストによって、3次元オブジェクトを編集することができる。   As described above, according to the three-dimensional object generation device according to the sixth embodiment, in order to analyze a text input by speech recognition and form a three-dimensional structure in real space as a real object, A user can obtain a three-dimensional structure from an extremely easy interface. In addition, a three-dimensional object can be edited using text input by voice recognition.

なお、変形後3Dオブジェクトモデルを表す3次元の造形物を形成し、形成された3次元の造形物に対して、編集操作に関する音声入力を受け付けるようにしてもよい。   Note that a three-dimensional structure that represents the 3D object model after deformation may be formed, and voice input related to an editing operation may be received with respect to the formed three-dimensional structure.

[第7の実施の形態] [Seventh Embodiment]

<システム構成> <System configuration>

次に、第7の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1〜6の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to a seventh embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st-6th embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第7の実施の形態では、既に3Dオブジェクトモデルが存在している状況において、初期テキストを表す音声入力を受け付けている点が、第6の実施の形態と異なっている。   The seventh embodiment is different from the sixth embodiment in that a voice input representing an initial text is accepted in a situation where a 3D object model already exists.

図22に示すように、第7の実施の形態に係る3次元オブジェクト生成装置700は、入力部10、演算部720と、モデル出力部30と、3次元造形部230とを備えている。   As illustrated in FIG. 22, the three-dimensional object generation device 700 according to the seventh embodiment includes an input unit 10, a calculation unit 720, a model output unit 30, and a three-dimensional modeling unit 230.

入力部10は、3Dオブジェクトモデルのデータの入力を受け付けると共に、当該3Dオブジェクトモデルの属性値に関する初期テキストを表す音声入力を受け付ける。例えば、車の3Dオブジェクトモデルのデータの入力を受け付けると共に、「黄色い車」という初期テキストを表す音声入力を受け付ける。また、入力部10は、編集操作に関する対話テキストを表す音声入力を受け付ける。例えば、「もっと薄く」という対話テキストを表す音声入力を受け付ける。また、入力部10は、終了処理に関する終了テキストを表す音声入力を受け付ける。例えば、「終了」という終了テキストを表す音声入力を受け付ける。なお、1回目(3Dオブジェクトモデルの出力前)に入力される音声入力は、3Dオブジェクトモデルのデータと共に入力される属性値に関する初期テキストを表す音声入力であり、3Dオブジェクトモデルを出力した後に入力される音声入力は、編集操作に関する対話テキストを表す音声入力、又は、終了処理に関する終了テキストを表す音声入力とする。また、モデル出力部30は、入力された3Dオブジェクトモデルを出力する。   The input unit 10 accepts input of data of a 3D object model and accepts voice input representing initial text related to attribute values of the 3D object model. For example, an input of data of a 3D object model of a car is accepted and a voice input representing an initial text “yellow car” is accepted. In addition, the input unit 10 receives a voice input representing a dialog text related to an editing operation. For example, a voice input representing a dialog text “more thinly” is accepted. In addition, the input unit 10 receives a voice input representing an end text related to the end process. For example, a voice input representing an end text “end” is received. Note that the audio input that is input for the first time (before the output of the 3D object model) is an audio input that represents the initial text regarding the attribute value that is input together with the data of the 3D object model, and is input after the 3D object model is output. The voice input is a voice input representing a dialogue text related to an editing operation or a voice input representing a termination text related to a termination process. The model output unit 30 outputs the input 3D object model.

演算部720は、音声認識部221、初期テキスト解析部721、モデル変形部724、対話テキスト解析部626、モデル編集部528、及び3次元造形制御部225を備えている。   The computing unit 720 includes a speech recognition unit 221, an initial text analysis unit 721, a model transformation unit 724, a dialog text analysis unit 626, a model editing unit 528, and a 3D modeling control unit 225.

初期テキスト解析部721は、1回目に入力された音声について、音声認識部221によって変換された初期テキストから、対象となる3Dオブジェクトモデルに関する属性値を同定する。   The initial text analysis unit 721 identifies the attribute value related to the target 3D object model from the initial text converted by the speech recognition unit 221 for the first input speech.

モデル変形部724は、入力された3Dオブジェクトモデルを、初期テキスト解析部721で同定した属性値にしたがって変形させて、変形後3Dオブジェクトモデルを、モデル出力部30により出力する。   The model deformation unit 724 deforms the input 3D object model according to the attribute value identified by the initial text analysis unit 721, and outputs the deformed 3D object model by the model output unit 30.

対話テキスト解析部726は、図23に示すように、終了判定部550、単語抽出部552、操作候補抽出部554、単語選択部556、操作順位付け部557、連結部558、変化量算出部560、単語対操作変換用データベース570、自然文集合データベース572、キーワード対操作候補対応データベース574、及び連用詞データベース576を備えている。   As shown in FIG. 23, the dialog text analysis unit 726 includes an end determination unit 550, a word extraction unit 552, an operation candidate extraction unit 554, a word selection unit 556, an operation ranking unit 557, a connection unit 558, and a change amount calculation unit 560. , A word pair operation conversion database 570, a natural sentence set database 572, a keyword pair operation candidate correspondence database 574, and a conjunction particle database 576.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、本発明の第7の実施の形態に係る3次元オブジェクト生成装置700の作用について説明する。まず、3Dオブジェクトモデルのデータが、3次元オブジェクト生成装置700に入力されると、モデル出力部30により、入力された3Dオブジェクトモデルが出力される。そして、3Dオブジェクトモデルに関する属性値を含む初期テキストを表わす音声が、3次元オブジェクト生成装置700に入力されると、3次元オブジェクト生成装置700によって、図24及び図21に示す3次元オブジェクト編集処理ルーチンが実行される。なお、第1〜6の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, the operation of the three-dimensional object generation device 700 according to the seventh embodiment of the present invention will be described. First, when 3D object model data is input to the three-dimensional object generation device 700, the model output unit 30 outputs the input 3D object model. Then, when sound representing initial text including attribute values related to the 3D object model is input to the 3D object generation device 700, the 3D object generation device 700 causes the 3D object editing processing routine shown in FIGS. Is executed. In addition, about the process similar to 1st-6th embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップS201において、入力された音声に対して音声認識処理を行い、音声を初期テキストに変換する。そして、ステップS701において、上記ステップS201で得られた初期テキストを解析し、3Dオブジェクトモデルに関する属性値を同定する。   In step S201, a speech recognition process is performed on the input speech to convert the speech to an initial text. In step S701, the initial text obtained in step S201 is analyzed to identify attribute values related to the 3D object model.

ステップS302において、入力された3Dオブジェクトモデルのデータを、上記ステップS301で同定した属性値に従って変形させて、モデル出力部30により出力する。   In step S302, the input 3D object model data is transformed according to the attribute value identified in step S301 and is output by the model output unit 30.

以上説明したように、第7の実施の形態に係る3次元オブジェクト生成装置によれば、音声認識で入力されたテキストを解析し、3次元オブジェクトを変形させて、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。また、入力された音声によって、3次元オブジェクトを編集することができる。   As described above, according to the three-dimensional object generation device according to the seventh embodiment, the text input by the speech recognition is analyzed, the three-dimensional object is deformed, and the three-dimensional object is converted into the real space as a real object. In order to form a three-dimensional structure, the user can obtain a three-dimensional structure from an extremely easy interface. Further, the three-dimensional object can be edited by the input voice.

なお、上記の実施の形態では、音声入力を受け付ける場合を例に説明したが、これに限定されるものではなく、テキスト入力を受け付けるようにしてもよい。   In the above embodiment, the case where voice input is accepted has been described as an example. However, the present invention is not limited to this, and text input may be accepted.

また、編集後3Dオブジェクトモデルを表わす3次元造形物を形成せずに、編集後3Dオブジェクトモデルをモデル出力部により出力するだけであってもよい。   Further, the edited 3D object model may be simply output by the model output unit without forming the three-dimensional structure representing the edited 3D object model.

なお、後述する第9の実施の形態と同様に、音声入力を受け付けて、音声認識部によって変換されたテキストについて、初期テキストであるか又は対話テキストであるかを判定するようにしてもよい。   Note that, as in a ninth embodiment to be described later, a voice input may be received to determine whether the text converted by the voice recognition unit is an initial text or a dialogue text.

[第8の実施の形態] [Eighth Embodiment]

<システム構成> <System configuration>

次に、第8の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1〜7の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to an eighth embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st-7th Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第8の実施の形態では、音声入力のまま、3Dオブジェクトモデルのオブジェクト名に分類している点と、音声入力のまま、編集操作を同定している点が、第6の実施の形態と異なっている。   The eighth embodiment differs from the sixth embodiment in that it is classified into the object name of the 3D object model as it is with voice input, and the editing operation is identified as it is with voice input. ing.

図25に示すように、第8の実施の形態に係る3次元オブジェクト生成装置800は、入力部10、演算部820と、モデル出力部30と、3次元造形部230とを備えている。   As illustrated in FIG. 25, the three-dimensional object generation device 800 according to the eighth embodiment includes an input unit 10, a calculation unit 820, a model output unit 30, and a three-dimensional modeling unit 230.

入力部10は、3Dオブジェクトモデルに関する音声入力を受け付ける。また、入力部10は編集操作に関する音声入力を受け付ける。終了処理に関する音声入力を受け付ける。なお、1回目(3Dオブジェクトモデルの出力前)に入力される音声入力は、3Dオブジェクトモデルに関する初期音声入力であり、3Dオブジェクトモデルを出力した後に入力される音声入力は、編集操作に関する対話音声入力、又は、終了処理に関する終了音声入力とする。   The input unit 10 receives a voice input related to the 3D object model. Further, the input unit 10 receives a voice input related to an editing operation. Accepts voice input related to termination processing. Note that the first voice input (before the output of the 3D object model) is an initial voice input related to the 3D object model, and the voice input input after outputting the 3D object model is an interactive voice input related to the editing operation. Or it is set as the end voice input regarding the end process.

演算部820は、音声解析部421、3Dオブジェクトモデルデータベース22、モデル取得部423、モデル変形部524、3次元造形制御部225、対話音声解析部821、及びモデル編集部828を備えている。   The calculation unit 820 includes a voice analysis unit 421, a 3D object model database 22, a model acquisition unit 423, a model deformation unit 524, a three-dimensional modeling control unit 225, a dialog voice analysis unit 821, and a model editing unit 828.

音声解析部421は、初期音声入力として入力された音声信号から、対象となる3Dオブジェクトモデルに関するオブジェクト名及び属性値を同定し、解析結果をモデル取得部423に出力する。   The voice analysis unit 421 identifies the object name and attribute value related to the target 3D object model from the voice signal input as the initial voice input, and outputs the analysis result to the model acquisition unit 423.

具体的には、初期音声入力として入力された音声信号を、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名に分類する。分類モデルについては、音声信号とクラスラベル(オブジェクト名)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。   Specifically, the audio signal input as the initial audio input is classified into object names stored in the 3D object model database 22. As for the classification model, a plurality of learning data in which audio signals and class labels (object names) are associated one-to-one are prepared, and the classification model is learned based on the learning data.

また、初期音声入力として入力された音声信号を、3Dオブジェクトモデルに関する属性値に分類する。分類モデルについては、音声信号とクラスラベル(属性値)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。   Also, the audio signal input as the initial audio input is classified into attribute values related to the 3D object model. As for the classification model, a plurality of learning data in which a speech signal and a class label (attribute value) are associated one-to-one are prepared, and the classification model is learned based on the learning data.

また、対話音声解析部821は、3Dオブジェクトモデルを出力した後に入力された音声信号について、終了処理に関する終了音声信号であるか否かを同定し、解析結果をモデル編集部828へ出力する。また、対話音声解析部821は、3Dオブジェクトモデルを出力した後に対話音声入力として入力された音声信号と、音声解析部421により同定されたオブジェクト名及び属性値とから、編集操作を同定し、解析結果をモデル編集部828へ出力する。   In addition, the dialog voice analysis unit 821 identifies whether the voice signal input after outputting the 3D object model is an end voice signal related to the end process, and outputs the analysis result to the model editing unit 828. In addition, the dialog voice analysis unit 821 identifies and analyzes the editing operation from the voice signal input as the dialog voice input after outputting the 3D object model and the object name and attribute value identified by the voice analysis unit 421. The result is output to the model editing unit 828.

具体的には、入力された音声信号を、終了処理に関する終了音声入力であるか否かに分類する。分類モデルについては、音声信号とクラスラベル(終了音声入力であるか否か)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。   Specifically, the input audio signal is classified into whether or not it is an end audio input related to an end process. For a classification model, a plurality of learning data in which a speech signal and a class label (whether or not the end speech input is input) are prepared in a one-to-one correspondence are prepared, and the classification model is learned based on the learning data. Good.

また、対話音声入力として入力された音声信号と、オブジェクト名及び属性値との組み合わせを、編集操作に分類する。分類モデルについては、音声信号、オブジェクト名、及び属性値の組み合わせと、クラスラベル(編集操作)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、分類モデルを学習しておけばよい。   Further, the combination of the audio signal input as the dialogue audio input, the object name, and the attribute value is classified as an editing operation. As for the classification model, a plurality of learning data in which a combination of a speech signal, an object name, and an attribute value is associated with a class label (editing operation) in one-to-one correspondence are prepared, and the classification model is learned based on the learning data. You just have to.

モデル編集部828は、対話音声解析部821から編集操作についての同定結果が入力された場合には、メモリに記憶されている3Dオブジェクトモデルを読み出し、対話音声解析部821で同定した編集操作にしたがって、読み出した3Dオブジェクトモデルを編集し、メモリ(図示省略)に記憶するとともに、モデル出力部30により出力する。また、モデル編集部828は、後段の3次元造形を高速化するため、編集後3Dオブジェクトモデルを意図的に分割する。例えば、編集後3Dオブジェクトモデルの大きさがもっとも短くなる軸方向を、3次元空間上の任意の軸方向から求め、求めた軸方向に、編集後3DオブジェクトモデルをN分割する。このとき、分割によりオブジェクト数が2倍よりも大きくならないように分割する。また、分割されたオブジェクトに対して、接着面が一意に定まるようマーキングしておく。また、音声解析部821から終了音声入力であると分類された結果が入力された場合には、メモリに最終的に記憶されている3Dオブジェクトモデルを3次元造形制御部225に出力する。   When the identification result about the editing operation is input from the dialog voice analysis unit 821, the model editing unit 828 reads the 3D object model stored in the memory and follows the editing operation identified by the dialog voice analysis unit 821. The read 3D object model is edited, stored in a memory (not shown), and output by the model output unit 30. Further, the model editing unit 828 intentionally divides the edited 3D object model in order to speed up the subsequent three-dimensional modeling. For example, the axial direction in which the size of the edited 3D object model is the shortest is obtained from an arbitrary axial direction in the three-dimensional space, and the edited 3D object model is divided into N in the obtained axial direction. At this time, the division is performed so that the number of objects does not become larger than double. In addition, marking is performed on the divided objects so that the adhesion surface is uniquely determined. Further, when a result classified as the end voice input is input from the voice analysis unit 821, the 3D object model finally stored in the memory is output to the three-dimensional modeling control unit 225.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、本発明の第8の実施の形態に係る3次元オブジェクト生成装置800の作用について説明する。まず、生成したい3Dオブジェクトモデルに関するテキスト表現及び属性値を表わす音声が、初期音声入力として、3次元オブジェクト生成装置800に入力されると、3次元オブジェクト生成装置800によって、図26に示す3次元オブジェクト編集処理ルーチンが実行される。なお、第1〜第7の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, the operation of the three-dimensional object generation device 800 according to the eighth embodiment of the present invention will be described. First, when a voice representing a text representation and an attribute value related to a 3D object model to be generated is input to the 3D object generation device 800 as an initial audio input, the 3D object generation device 800 causes the 3D object shown in FIG. An editing process routine is executed. In addition, about the process similar to 1st-7th embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップS801において、初期音声入力として入力された音声信号を受け付け、受け付けた音声信号を、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名に分類する。また、初期音声入力として入力された音声信号を、3Dオブジェクトモデルに関する属性値に分類する。   In step S <b> 801, an audio signal input as an initial audio input is received, and the received audio signal is classified into object names stored in the 3D object model database 22. Also, the audio signal input as the initial audio input is classified into attribute values related to the 3D object model.

ステップS803において、ステップS801で分類したオブジェクト名と一致する3Dオブジェクトモデルを3Dオブジェクトモデルデータベース22から読み出し、ステップS803で分類した属性値に対応するように変形させて、モデル出力部30により出力する。   In step S803, the 3D object model that matches the object name classified in step S801 is read from the 3D object model database 22, transformed to correspond to the attribute value classified in step S803, and output by the model output unit 30.

ステップS805において、ステップS803で出力した変形後3Dオブジェクトモデル又は後述するステップS811で出力した編集後3Dオブジェクトモデルに対して入力された音声信号を受け付け、受け付けた音声信号について、終了処理に関する終了音声入力であるか否かに分類する。   In step S805, the audio signal input to the post-transform 3D object model output in step S803 or the post-edit 3D object model output in step S811 described below is received. It classifies whether it is.

ステップS807において、ステップS805で終了音声入力であると分類されたか否かの判定をする。分類結果が終了音声入力である場合には、ステップS803で変形させた変形後3Dオブジェクトモデル又はステップS809で編集した編集後3Dオブジェクトモデルを3次元造形制御部225に出力する。分類結果が終了音声入力でない場合には、対話音声入力として入力された音声信号を受け付けたと判定し、ステップS808へ移行する   In step S807, it is determined whether or not it is classified as the end voice input in step S805. When the classification result is an end voice input, the modified 3D object model deformed in step S803 or the edited 3D object model edited in step S809 is output to the three-dimensional modeling control unit 225. If the classification result is not the end voice input, it is determined that the voice signal input as the dialog voice input has been received, and the process proceeds to step S808.

ステップS808において、ステップS805で受け付けた音声信号と、ステップS801で分類したオブジェクト名及び属性値とに基づいて、音声信号を、複数の編集操作のうちの何れか1つに分類する。   In step S808, the audio signal is classified into one of a plurality of editing operations based on the audio signal received in step S805 and the object name and attribute value classified in step S801.

ステップS809において、ステップS805で分類された編集操作に基づいて、ステップS803で変形させた変形後3Dオブジェクトモデル又は前回のステップS809で編集した編集後3Dオブジェクトモデルを編集する。   In step S809, based on the editing operation classified in step S805, the modified 3D object model deformed in step S803 or the edited 3D object model edited in the previous step S809 is edited.

ステップS811では、ステップS809で編集した編集後3Dオブジェクトモデルを、モデル出力部30により出力し、ステップS805へ戻る。   In step S811, the edited 3D object model edited in step S809 is output by the model output unit 30, and the process returns to step S805.

以上説明したように、第8の実施の形態に係る3次元オブジェクト生成装置によれば、音声入力を解析し、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。また、入力された音声によって、3次元オブジェクトを編集することができる。   As described above, according to the three-dimensional object generation device according to the eighth embodiment, it is very easy for the user to analyze a voice input and form a three-dimensional structure in real space as a real object. 3D objects can be obtained from a simple interface. Further, the three-dimensional object can be edited by the input voice.

なお、後述する第9の実施の形態と同様に、音声入力を受け付けて、初期音声入力であるか又は対話音声入力であるかを判定するようにしてもよい。   Note that, as in a ninth embodiment to be described later, a voice input may be received to determine whether the voice input is an initial voice input or an interactive voice input.

[第9の実施の形態] [Ninth Embodiment]

<システム構成> <System configuration>

次に、第9の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1〜第8の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to a ninth embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st-8th embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第9の実施の形態では、入力された音声の認識結果が初期テキストか対話テキストかを判定している点が第6の実施の形態と異なっている。   The ninth embodiment is different from the sixth embodiment in that it is determined whether the input speech recognition result is an initial text or a dialog text.

図27に示すように、第9の実施の形態に係る3次元オブジェクト生成装置900は、入力部10と、演算部920と、モデル出力部30と、3次元造形部230とを備えている。   As illustrated in FIG. 27, the three-dimensional object generation device 900 according to the ninth embodiment includes an input unit 10, a calculation unit 920, a model output unit 30, and a three-dimensional modeling unit 230.

入力部10は、3Dオブジェクトモデルに関する初期テキストを表す音声入力を受け付ける。また、入力部10は、編集操作に関する対話テキストを表す音声入力を受け付ける。また、入力部10は、終了処理に関する終了テキストを表す音声入力を受け付ける。   The input unit 10 receives a voice input representing initial text related to the 3D object model. In addition, the input unit 10 receives a voice input representing a dialog text related to an editing operation. In addition, the input unit 10 receives a voice input representing an end text related to the end process.

演算部220は、音声認識部221、初期対話判定部921、初期テキスト解析部521、3Dオブジェクトモデルデータベース22、モデル取得部23、モデル変形部524、3次元造形制御部225、対話テキスト解析部926、及びモデル編集部528を備えている。   The calculation unit 220 includes a voice recognition unit 221, an initial dialogue determination unit 921, an initial text analysis unit 521, a 3D object model database 22, a model acquisition unit 23, a model transformation unit 524, a three-dimensional modeling control unit 225, and a dialogue text analysis unit 926. , And a model editing unit 528.

音声認識部221は、入力された音声に対して、音声認識処理を行い、テキスト(例えば、「10cmの黄色い車」)に変換する。なお、音声認識処理の内容については、従来の音声認識(例えば、隠れマルコフモデルやHMMを用いた音声認識)を使えばよく、特に方式等は問わない。   The voice recognition unit 221 performs voice recognition processing on the input voice and converts it into text (for example, “10 cm yellow car”). Note that the content of the speech recognition process may be conventional speech recognition (for example, speech recognition using a hidden Markov model or HMM), and any method may be used.

初期対話判定部921は、音声認識部221から入力される音声認識処理結果のテキストについて、図28に示すように形態素解析を行う。そして、形態解析結果に基づいて、終了処理に紐付けられたキーワードが入力された場合には、当該テキストを対話テキスト解析部926に出力する。また、終了処理に紐付けられたキーワードが入力されなかった場合には、形態素解析結果に基づいて、ルールベース又は機械学習によって、入力されたテキストが初期テキストか対話テキストかに分類する。また、初期テキストが入力されたと判定された場合には、当該テキストを初期テキスト解析部521に出力し、対話テキストが入力されたと判定された場合には、当該テキストを対話テキスト解析部926に出力する。ルールベースによって分類する場合には、メモリに記憶されている、音声認識処理結果のテキストに含まれていた直近のモデル名と、入力されたテキストの最後の名詞が異なる場合には、初期テキストであると判定し、それ以外の場合には、対話テキストであると判定する。   The initial dialogue determination unit 921 performs morphological analysis on the text of the speech recognition processing result input from the speech recognition unit 221 as shown in FIG. Then, when a keyword associated with the termination process is input based on the form analysis result, the text is output to the dialog text analysis unit 926. Further, when the keyword associated with the termination process is not input, the input text is classified into the initial text or the dialog text by rule base or machine learning based on the morphological analysis result. When it is determined that the initial text is input, the text is output to the initial text analysis unit 521. When it is determined that the dialog text is input, the text is output to the dialog text analysis unit 926. To do. When classifying by rule base, if the last model name included in the text of the speech recognition processing result stored in the memory is different from the last noun of the input text, the initial text is used. It is determined that there is, and otherwise, it is determined that the text is a dialog text.

また、機械学習を用いて分類する場合には、メモリに記憶されている1つ前に入力されたテキスト解析結果や形態素解析結果等を素性化し、事前に学習した識別用のモデルに基づいて、初期テキストか対話テキストかを分類する。ここで、bigramによる素性化を行う場合には、「赤い車」というテキストが入力されると、素性は、「車−EOS,名詞−EOS」となる。ただし、EOSは文末記号を表す。また、trigramによる素性化を行う場合には、「もっと薄く」というテキストが入力されると、素性は、「薄−く−EOS」「形容詞語幹−形容詞接尾辞−連用」となる。   Also, when classifying using machine learning, the previous text analysis result or morpheme analysis result stored in the memory is featured, and based on an identification model learned in advance, Categorize whether initial text or interactive text. Here, in the case of performing the feature by bigram, when the text “red car” is input, the feature becomes “car-EOS, noun-EOS”. However, EOS represents a sentence end symbol. Also, in the case of trigram feature, if the text “more thin” is input, the feature becomes “thin-ku-EOS” “adjective stem-adjective suffix-continuous”.

対話テキスト解析部926は、図29に示すように、終了判定部550、単語抽出部552、操作候補抽出部554、単語選択部556、操作順位付け部557、連結部558、変化量算出部560、単語対操作変換用データベース570、自然文集合データベース572、キーワード対操作候補対応データベース574、及び連用詞データベース576を備えている。   As shown in FIG. 29, the dialog text analysis unit 926 includes an end determination unit 550, a word extraction unit 552, an operation candidate extraction unit 554, a word selection unit 556, an operation ranking unit 557, a connection unit 558, and a change amount calculation unit 560. , A word pair operation conversion database 570, a natural sentence set database 572, a keyword pair operation candidate correspondence database 574, and a conjunction particle database 576.

終了判定部550は、初期対話判定部921によって終了処理に紐付けられたキーワードが入力されたと判定された場合に、入力されたテキストが終了テキストであると判定する。   The end determination unit 550 determines that the input text is the end text when the initial dialogue determination unit 921 determines that the keyword associated with the end process has been input.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、第9の実施の形態に係る3次元オブジェクト生成装置900の作用について説明する。まず、音声が、3次元オブジェクト生成装置900に入力されると、3次元オブジェクト生成装置900によって、図30に示す3次元オブジェクト生成処理ルーチンが実行される。なお、第1〜第8の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, the operation of the three-dimensional object generation device 900 according to the ninth embodiment will be described. First, when sound is input to the three-dimensional object generation device 900, the three-dimensional object generation processing routine shown in FIG. In addition, about the process similar to 1st-8th embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

ステップS901において、ステップS201で音声認識処理された結果のテキストが、終了処理に紐づけられたキーワードを含むか否かを判定すると共に、初期テキスト、又は対話テキストであるかを判定する。   In step S901, it is determined whether the text resulting from the speech recognition process in step S201 includes a keyword associated with the end process, and whether the text is an initial text or a dialog text.

ステップS902において、ステップS901で判定された結果が初期テキストであると判定された場合には、ステップS501へ移行し、初期テキストでないと判定された場合には、ステップS601へ移行する。   If it is determined in step S902 that the result determined in step S901 is the initial text, the process proceeds to step S501. If it is determined that the result is not the initial text, the process proceeds to step S601.

以上説明したように、第9の実施の形態に係る3次元オブジェクト生成装置によれば、音声認識で入力されたテキストを解析し、実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。また、音声認識で入力されたテキストによって、3次元オブジェクトを変形させることができる。また、入力された音声によって、初期テキスト、又は対話テキストかを分類することにより、後続して、初期テキストに基づいて3次元オブジェクトを生成するか、又は対話テキストに基づいて3次元オブジェクトを編集することができる。   As described above, according to the three-dimensional object generation device according to the ninth embodiment, in order to analyze a text input by speech recognition and form a three-dimensional structure in real space as a real object, A user can obtain a three-dimensional structure from an extremely easy interface. In addition, a three-dimensional object can be transformed by text input by voice recognition. Further, by classifying the initial text or the dialogue text according to the input voice, a three-dimensional object is subsequently generated based on the initial text, or the three-dimensional object is edited based on the dialogue text. be able to.

[第10の実施の形態] [Tenth embodiment]

<システム構成> <System configuration>

次に、第10の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第5の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to the tenth embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 5th Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

上記の第1の実施の形態〜第9の実施の形態では、三次元オブジェクトモデルに対し、色や全体的な形状(尖度等)を変化させることを目的としており、オブジェクト自体が複数のパーツから成るような場合に個別のパーツを変更、置換できない。   In the first to ninth embodiments, the object is to change the color and the overall shape (kurtosis, etc.) of the three-dimensional object model, and the object itself has a plurality of parts. Individual parts cannot be changed or replaced if they consist of

第10の実施の形態では、選択したパーツとオブジェクトモデルとを合成して3Dオブジェクトモデルを生成する点が、第1の実施の形態と異なっている。   The tenth embodiment is different from the first embodiment in that a 3D object model is generated by synthesizing a selected part and an object model.

図32に示すように、第10の実施の形態に係る3次元オブジェクト生成装置1000は、入力部10、演算部1020と、モデル出力部30とを備えている。   As illustrated in FIG. 32, the three-dimensional object generation device 1000 according to the tenth embodiment includes an input unit 10, a calculation unit 1020, and a model output unit 30.

入力部10は、キーボード等により、3Dオブジェクトモデルに関する初期テキストのテキスト入力を受け付ける。例えば、「渋谷系のカレン」という初期テキストのテキスト入力を受け付ける。また、入力部10は、編集操作に関する対話テキストのテキスト入力を受け付ける。例えば、「もっと薄く」という対話テキストのテキスト入力を受け付ける。また、入力部10は、終了処理に紐付けられた終了テキストのテキスト入力を受け付ける。例えば、「終了」というテキスト入力を受け付ける。ここで、初期テキストとは、はじめに3Dオブジェクトモデルのオブジェクト名及び属性表現を3次元オブジェクト生成装置500に指示する目的のテキストであり、対話テキストとは、既に得られた初期テキストの解析結果に基づいて得られた3Dオブジェクトモデルに対し、3次元オブジェクト生成装置500と対話的に編集を行う目的のテキストである。なお、初期テキストは1回目の入力において1度だけ与えられ、3Dオブジェクトモデルを出力した後のテキストはすべて対話テキスト又は終了テキストであるとする。また、3Dオブジェクトモデルがオブジェクトモデルの一例である。   The input unit 10 receives a text input of an initial text related to the 3D object model using a keyboard or the like. For example, a text input of an initial text “Shibuya Karen” is accepted. The input unit 10 also accepts text input of interactive text related to editing operations. For example, a text input of a dialog text “more thinly” is accepted. In addition, the input unit 10 receives a text input of an end text associated with the end process. For example, a text input “end” is accepted. Here, the initial text is a text for the purpose of instructing the 3D object generation device 500 first of the object name and attribute expression of the 3D object model, and the dialogue text is based on the analysis result of the already obtained initial text. This text is intended to be interactively edited with the 3D object generation device 500 for the 3D object model obtained in this way. Note that the initial text is given only once at the first input, and all the text after outputting the 3D object model is the dialog text or the end text. A 3D object model is an example of an object model.

演算部1020は、3Dオブジェクトモデルデータベース22、初期テキスト解析部1022、対象パーツ群決定部1024、クラス名データベース1026、必要パーツ群データベース1028、パーツ選択部1030、3Dパーツモデルデータベース1032、パーツ合成部1034、対話テキスト解析部1023、及びモデル編集部528を備えている。   The calculation unit 1020 includes a 3D object model database 22, an initial text analysis unit 1022, a target part group determination unit 1024, a class name database 1026, a necessary parts group database 1028, a part selection unit 1030, a 3D part model database 1032, and a parts synthesis unit 1034. , A dialog text analysis unit 1023 and a model editing unit 528 are provided.

初期テキスト解析部1022は、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名に基づいて、入力された初期テキストから、対象となる3Dオブジェクトモデルに関するオブジェクト名を表すテキスト表現(例えば「カレン」)を抽出する。また、初期テキスト解析部1022は、入力されたテキストから、対象となる3Dオブジェクトモデルに関するオブジェクト名を表すテキスト表現に付加される属性表現(例えば「かわいい」「渋谷系」「山に登る時の」等)を抽出する。なお、属性表現の取得方法については単純表記マッチ(例:/Xの(オブジェクト名)/)や、正規表現(例:/(.+?)系/等)を用いてもよい。   Based on the object name stored in the 3D object model database 22, the initial text analysis unit 1022 generates a text expression (for example, “Karen”) representing the object name related to the target 3D object model from the input initial text. Extract. Further, the initial text analysis unit 1022 adds an attribute expression (for example, “cute”, “Shibuya system”, “when climbing a mountain”) that is added to the text expression representing the object name related to the target 3D object model from the input text. Etc.). As a method for acquiring the attribute expression, a simple notation match (for example, (object name) / of / X) or a regular expression (for example, /(.+?) System / etc.) May be used.

対象パーツ群決定部1024は、クラス名データベース1026から初期テキスト解析部1022によって抽出された3Dオブジェクトモデルに関するオブジェクト名に対応付けて記憶されているクラス名を取得する。例えば、図37(A)、(B)に示すように、オブジェクト名が「カレン」である場合、クラス名データベース1026を参照し、「カレン」に対応するクラス名「人」を取得する。なお、クラス名データベース1026を用いるのではなく、CRF等のシーケンシャルラベリング技術等を用いて、オンザフライでクラス名を推定しても良い。   The target part group determination unit 1024 acquires the class name stored in association with the object name related to the 3D object model extracted by the initial text analysis unit 1022 from the class name database 1026. For example, as shown in FIGS. 37A and 37B, when the object name is “Karen”, the class name database 1026 is referred to, and the class name “person” corresponding to “Karen” is acquired. Instead of using the class name database 1026, the class name may be estimated on the fly using a sequential labeling technique such as CRF.

対象パーツ群決定部1024は、必要パーツ群データベース1028から、3Dオブジェクトモデルに関するオブジェクト名から取得されたクラス名と対応付けて記憶されているパーツ群を特定する。例えば、図37(C)に示すように、クラス名が「人」である場合、必要パーツ群データベース1028を参照し、「人」に対応するパーツ群「髪型」及びパーツ群「服」を特定する。また、パーツ群は、図38(A)、(B)に示すように、3Dオブジェクトモデルに対応する複数の3Dパーツから構成されている。また、3Dパーツがパーツの一例である。   The target part group determination unit 1024 specifies a part group stored in association with the class name acquired from the object name related to the 3D object model from the necessary part group database 1028. For example, as shown in FIG. 37C, when the class name is “person”, the necessary part group database 1028 is referred to and the part group “hairstyle” and the part group “clothes” corresponding to “person” are specified. To do. Moreover, the part group is comprised from several 3D parts corresponding to a 3D object model, as shown to FIG. 38 (A) and (B). A 3D part is an example of a part.

クラス名データベース1026は、3Dオブジェクトモデルに関するオブジェクト名を表すテキスト表現に対応するクラス名を記憶している。クラス名データベース1026には、例えば、図37(B)に示すように、オブジェクト名「カレン」や「トム」に対してクラス名「人」が記憶され、オブジェクト名「F80」に対してクラス名「車」が記憶され、オブジェクト名「ベスパ」に対してクラス名「バイク」が記憶されている。   The class name database 1026 stores class names corresponding to text expressions representing object names related to the 3D object model. In the class name database 1026, for example, as shown in FIG. 37B, the class name “person” is stored for the object names “Karen” and “Tom”, and the class name for the object name “F80”. “Car” is stored, and the class name “bike” is stored for the object name “Vespa”.

必要パーツ群データベース1028は、クラス名に対応する3Dオブジェクトモデルを構成する各部の3Dパーツに対応するパーツ群を記憶している。必要パーツ群データベース1028には、例えば、図37(C)に示すように、クラス名「人」に対してパーツ群「髪型」及びパーツ群「服」が記憶され、クラス名「車」に対してパーツ群「車用車体」及びパーツ群「車用タイヤ」が記憶され、クラス名「バイク」に対してパーツ群「バイク用車体」及びパーツ群「バイク用タイヤ」が記憶されている。   The necessary parts group database 1028 stores parts groups corresponding to 3D parts of each part constituting the 3D object model corresponding to the class name. In the necessary parts group database 1028, for example, as shown in FIG. 37C, the parts group “hairstyle” and the parts group “clothes” are stored for the class name “people”, and the class name “car” is stored. The part group “vehicle body” and the part group “car tire” are stored, and the part group “motorcycle body” and the part group “motorcycle tire” are stored for the class name “bike”.

パーツ選択部1030は、対象パーツ群決定部1024で特定したパーツ群の各々について、当該パーツ群と、初期テキスト解析部1022で抽出した属性表現とに基づいて、当該パーツ群に含まれる3Dパーツの各々に対し、属性表現と当該3Dパーツに関するテキスト表現とが、WEB等の大規模テキスト中でどの程度共起するかという情報に基づいて、出力候補となる3Dパーツに対してスコアリングを行い、当該パーツ群から、最適なパーツを選択する。具体的には、既存の検索システムを用いて、パーツ群の各3Dパーツについて、属性表現と当該3Dパーツを表す文字列とをAND条件で結合した検索クエリを用いて検索を行う。例えば、属性表現が「渋谷系」、3Dパーツを表す文字列が「ショートカット」であれば、検索クエリ「渋谷系 AND ショートカット」を用いて検索する。そして、検索結果の検索ヒット数をスコアとして、パーツ群から、最も高いスコアとなった3Dパーツを選択する。   For each of the parts group specified by the target parts group determination unit 1024, the parts selection unit 1030 determines the 3D parts included in the parts group based on the parts group and the attribute expression extracted by the initial text analysis unit 1022. For each of them, scoring is performed on 3D parts that are output candidates based on information on how much the attribute expression and the text expression related to the 3D part co-occur in a large-scale text such as WEB, An optimal part is selected from the part group. Specifically, for each 3D part of the part group, an existing search system is used to perform a search using a search query in which an attribute expression and a character string representing the 3D part are combined with an AND condition. For example, if the attribute expression is “Shibuya-kei” and the character string representing the 3D part is “shortcut”, the search is performed using the search query “Shibuya-kei AND shortcut”. Then, the 3D part having the highest score is selected from the part group with the number of search hits in the search result as a score.

なお、初期テキスト解析部1022で抽出した属性表現が複数ある場合には、複数の属性表現を含めた検索クエリを用いて検索してもよい。例えば、検索クエリ「渋谷系 AND かわいい AND ショートカット」を用いて検索する。   When there are a plurality of attribute expressions extracted by the initial text analysis unit 1022, a search may be performed using a search query including a plurality of attribute expressions. For example, a search query “Shibuya-type AND cute AND shortcut” is used.

また、パーツ選択部1030は、以下の式に示すように、3Dパーツを表す文字列を用いた検索クエリによる検索数で正規化したスコアを算出するようにしてもよい。   In addition, the part selection unit 1030 may calculate a score normalized by the number of searches by a search query using a character string representing a 3D part, as shown in the following formula.

スコア=(属性表現 AND 3Dパーツを表す文字列)の検索数/3Dパーツを表す文字列の検索数   Number of searches for score = (attribute expression AND character string representing 3D parts) / number of character strings representing 3D parts

例えば、(検索クエリ「渋谷系 AND ショートカット」を用いた検索数)/(検索クエリ「ショートカット」を用いた検索数)を、スコアとして算出する。   For example, (number of searches using the search query “Shibuya AND shortcut”) / (number of searches using the search query “shortcut”) is calculated as a score.

なお、検索の実行時に、検索先を任意のWEBページに限るように制約をつけてもよいし、検索先を今年更新されたページに限るように、時系列に関する制約をつけてもよい。また、検索クエリに、評判情報(例:かわいい)等を付加してもよい。   When executing a search, a restriction may be imposed so that the search destination is limited to an arbitrary WEB page, or a restriction on time series may be imposed so that the search destination is limited to a page updated this year. Moreover, you may add reputation information (example: cute) etc. to a search query.

3Dパーツモデルデータベース1032は、パーツ群に対応する複数の3Dパーツを記憶している。例えば、図38(A)に示すように、パーツ群「髪型」に対応して、3Dパーツ「ショートカット」、3Dパーツ「ロングヘア」、及び3Dパーツ「アフロ」を記憶している。   The 3D parts model database 1032 stores a plurality of 3D parts corresponding to the part group. For example, as shown in FIG. 38A, 3D part “shortcut”, 3D part “long hair”, and 3D part “Afro” are stored in correspondence with the part group “hairstyle”.

パーツ合成部1034は、3Dオブジェクトモデルデータベース22から、初期テキスト解析部1022によって抽出されたオブジェクト名に対応する3Dオブジェクトモデルを取得し、取得した3Dオブジェクトモデルと、パーツ選択部1030によって選択された3Dパーツとを合成した、3Dオブジェクトモデルを生成する。合成の手法は、非特許文献2(E. Kalogerakis, S. Chaudhuri, D. Koller and V. Koltun, “A probabilistic model for component-based shape synthesis”, ACM Trans. on Graphics, Vol. 31, No. 4, 2012.)に記載のものと同様の手法を用いる。例えば、3Dオブジェクトモデル「カレン」を構成する3Dパーツ「髪型」と3Dパーツ「服」を、パーツ選択部1030で選択された3Dパーツ「髪型=ショートカット」と3Dパーツ「服=ナチュラル」に置き換えるように合成する。   The parts synthesis unit 1034 acquires a 3D object model corresponding to the object name extracted by the initial text analysis unit 1022 from the 3D object model database 22, and the acquired 3D object model and the 3D selected by the parts selection unit 1030. A 3D object model is generated by combining the parts. The synthesis technique is described in Non-Patent Document 2 (E. Kalogerakis, S. Chaudhuri, D. Koller and V. Koltun, “A probabilistic model for component-based shape synthesis”, ACM Trans. On Graphics, Vol. 31, No. 4, 2012)). For example, the 3D part “hairstyle” and the 3D part “clothes” constituting the 3D object model “Karen” are replaced with the 3D part “hairstyle = shortcut” and the 3D part “clothes = natural” selected by the part selection unit 1030. To synthesize.

なお、上記とは別の合成処理手段として、リアルタイムで合成せずに、予め全3Dパーツと基本オブジェクトの組み合わせについて合成したものを3Dオブジェクトモデルデータベース22に保持しておき、3Dオブジェクトモデルデータベース22から、選択された3Dパーツに応じて3Dオブジェクトモデルを取得するようにしてもよい。事前の合成においては、パーツ合成部1034と同様に自動合成しても良いし、手動で合成してもよい。   In addition, as a synthesis processing unit different from the above, a combination of all 3D parts and basic objects is stored in the 3D object model database 22 in advance without combining in real time. The 3D object model may be acquired according to the selected 3D part. In the pre-synthesis, automatic synthesis may be performed similarly to the parts synthesis unit 1034, or manual synthesis may be performed.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、本発明の第10の実施の形態に係る3次元オブジェクト生成装置1000の作用について説明する。まず、生成したい3Dオブジェクトモデルに関する初期テキストが、3次元オブジェクト生成装置1000に入力されると、3次元オブジェクト生成装置1000によって、図36に示す3次元オブジェクト生成処理ルーチンが実行される。なお、第1〜第9の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, the operation of the three-dimensional object generation device 1000 according to the tenth embodiment of the present invention will be described. First, when an initial text relating to a 3D object model to be generated is input to the 3D object generation apparatus 1000, the 3D object generation apparatus 1000 executes a 3D object generation processing routine shown in FIG. In addition, about the process similar to 1st-9th embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まずステップS1001では、入力された初期テキストを解析し、3Dオブジェクトモデルデータベース22に基づいて、3Dオブジェクトモデルに関するオブジェクト名を表すテキスト表現、及び当該オブジェクト名を表すテキスト表現に付加される属性表現を抽出する。   First, in step S1001, the input initial text is analyzed, and based on the 3D object model database 22, a text expression representing an object name related to the 3D object model and an attribute expression added to the text expression representing the object name are extracted. To do.

そして、ステップS1002において、クラス名データベース1026から、上記ステップS1001で抽出したオブジェクト名に対応付けられて記憶されているクラス名を取得し、必要パーツ群データベース1028から、取得したクラス名に対応付けられて記憶されているパーツ群を特定する。   In step S1002, the class name stored in association with the object name extracted in step S1001 is obtained from the class name database 1026, and is associated with the obtained class name from the necessary parts group database 1028. The parts group memorized is specified.

ステップS1004では、ステップS1002で特定したパーツ群の各々について、当該パーツ群と、上記ステップS1001で抽出された属性表現とに基づいて、当該パーツ群に属する3Dパーツの各々に対し、属性表現と3Dパーツに関するテキスト表現とを連結した検索クエリを用いて、インターネットを介してWEB等の大規模テキストに対して検索を行い、検索ヒット数から3Dパーツに対するスコアを算出する。そして、ステップS1002で特定したパーツ群の各々について、パーツ群からスコアが最も高い3Dパーツを選択する。   In step S1004, for each part group specified in step S1002, based on the part group and the attribute expression extracted in step S1001, the attribute expression and 3D are assigned to each 3D part belonging to the part group. A search is performed on a large-scale text such as WEB via the Internet using a search query in which a text expression related to a part is linked, and a score for a 3D part is calculated from the number of search hits. Then, for each part group specified in step S1002, the 3D part having the highest score is selected from the part group.

そして、ステップS1006では、3Dオブジェクトモデルデータベース22から、初期テキスト解析部1022によって抽出されたオブジェクト名に対応するオブジェクトモデルを取得し、取得した3Dオブジェクトモデルに対して、上記ステップS1004で選択した3Dパーツに置き換えるように合成した、3Dオブジェクトモデルを生成する。   In step S1006, an object model corresponding to the object name extracted by the initial text analysis unit 1022 is acquired from the 3D object model database 22, and the 3D part selected in step S1004 is acquired with respect to the acquired 3D object model. A 3D object model synthesized so as to be replaced with is generated.

次のステップS104では、上記ステップS1006で生成された3Dオブジェクトモデルを、モデル出力部30により出力する。   In the next step S104, the model output unit 30 outputs the 3D object model generated in step S1006.

次に、ステップS502において、連用詞データベース576に記憶されている連用詞変化量表を読み込む。   Next, in step S502, the continuous verb change amount table stored in the continuous verb database 576 is read.

次に、ステップS504において、単語対操作変換用データベース570に記憶されている単語対操作変換表を読み込む。   In step S504, the word pair operation conversion table stored in the word pair operation conversion database 570 is read.

次に、ステップS508において、キーワード対操作候補対応データベース574に記憶されているキーワード対操作候補対応表を読み込む。   In step S508, the keyword / operation candidate correspondence table stored in the keyword / operation candidate correspondence database 574 is read.

そして、上記図17(A)に示す3次元オブジェクト編集処理ルーチンのステップS510〜S528と同様の処理を行う。   Then, the same processing as steps S510 to S528 of the three-dimensional object editing processing routine shown in FIG.

以上、説明したように、第10の実施の形態に係るオブジェクト生成装置によれば、キーボード等で入力されたテキストからオブジェクト名と属性表現とを抽出し、抽出されたオブジェクト名からパーツ群を特定し、パーツ群に属するパーツのテキスト表現と属性表現とを含む検索クエリを用いた検索の検索ヒット数に基づいて、共起の度合いを示すスコアを算出し、算出されたスコアに基づいて、パーツ群からパーツを選択し、3Dオブジェクトモデルと合成することで、ユーザが、入力が容易なインタフェースから、3Dオブジェクトモデルを得ることができる。   As described above, according to the object generation device according to the tenth embodiment, the object name and the attribute expression are extracted from the text input with the keyboard or the like, and the part group is specified from the extracted object name. A score indicating the degree of co-occurrence is calculated based on the number of search hits of a search using a search query including a text expression and an attribute expression of parts belonging to the part group, and the part is calculated based on the calculated score. By selecting a part from the group and synthesizing it with the 3D object model, the user can obtain the 3D object model from an interface that allows easy input.

[第11の実施の形態] [Eleventh embodiment]

<システム構成> <System configuration>

次に、第11の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1〜第10の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to the eleventh embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st-10th Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第11の実施の形態では、音声入力を受け付けている点と、3Dオブジェクトモデルに基づいて、3次元の造形物を形成している点とが、第10の実施の形態と異なっている。   The eleventh embodiment is different from the tenth embodiment in that a voice input is accepted and a three-dimensional structure is formed based on a 3D object model.

図33に示すように、第11の実施の形態に係る3次元オブジェクト生成装置1100は、入力部10と、演算部1120と、モデル出力部30と、3次元造形部230とを備えている。   As illustrated in FIG. 33, the three-dimensional object generation device 1100 according to the eleventh embodiment includes an input unit 10, a calculation unit 1120, a model output unit 30, and a three-dimensional modeling unit 230.

入力部10は、3Dオブジェクトモデルに関する初期テキストを表す音声入力を受け付ける。例えば、「渋谷系のカレン」という初期テキストを表す音声入力を受け付ける。また、入力部10は、編集操作に関する対話テキストを表す音声入力を受け付ける。例えば、「もっと薄く」という対話テキストを表す音声入力を受け付ける。また、入力部10は、終了処理に関する終了テキストを表す音声入力を受け付ける。例えば、「終了」という終了テキストを表す音声入力を受け付ける。なお、1回目(3Dオブジェクトモデルの出力前)に入力される音声入力は、3Dオブジェクトモデルに関する初期テキストを表す音声入力であり、3Dオブジェクトモデルを出力した後に入力される音声入力は、編集操作に関する対話テキストを表す音声入力、又は、終了処理に関する終了テキストを表す音声入力とする。   The input unit 10 receives a voice input representing initial text related to the 3D object model. For example, a voice input representing the initial text “Shibuya Karen” is accepted. In addition, the input unit 10 receives a voice input representing a dialog text related to an editing operation. For example, a voice input representing a dialog text “more thinly” is accepted. In addition, the input unit 10 receives a voice input representing an end text related to the end process. For example, a voice input representing an end text “end” is received. Note that the audio input input for the first time (before the output of the 3D object model) is an audio input representing the initial text related to the 3D object model, and the audio input input after outputting the 3D object model is related to the editing operation. It is assumed that the voice input represents a dialog text or the voice input representing the end text related to the end process.

演算部1120は、3Dオブジェクトモデルデータベース22、音声認識部221、初期テキスト解析部1122、対象パーツ群決定部1024、クラス名データベース1026、必要パーツ群データベース1028、パーツ選択部1030、3Dパーツモデルデータベース1032、パーツ合成部1034、3次元造形制御部225、対話テキスト解析部1123、及びモデル編集部528を備えている。   The calculation unit 1120 includes a 3D object model database 22, a speech recognition unit 221, an initial text analysis unit 1122, a target part group determination unit 1024, a class name database 1026, a necessary parts group database 1028, a parts selection unit 1030, and a 3D parts model database 1032. A parts synthesis unit 1034, a three-dimensional modeling control unit 225, a dialog text analysis unit 1123, and a model editing unit 528.

音声認識部221は、入力された音声に対して、音声認識処理を行い、テキスト(例えば、「渋谷系のカレン」)に変換する。なお、音声認識処理の内容については、従来の音声認識(例えば、隠れマルコフモデルやHMMを用いた音声認識)を使えばよく、特に方式等は問わない。   The voice recognition unit 221 performs voice recognition processing on the input voice and converts it into text (for example, “Shibuya Karen”). Note that the content of the speech recognition process may be conventional speech recognition (for example, speech recognition using a hidden Markov model or HMM), and any method may be used.

初期テキスト解析部1122は、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名に基づいて、音声認識部221によって変換されたテキストから、対象となる3Dオブジェクトモデルに関するオブジェクト名を表すテキスト表現を抽出する。また、初期テキスト解析部1122は、入力されたテキストから、対象となる3Dオブジェクトモデルに関するオブジェクト名を表すテキスト表現に付加される属性表現を抽出する。   Based on the object name stored in the 3D object model database 22, the initial text analysis unit 1122 extracts a text expression representing the object name related to the target 3D object model from the text converted by the speech recognition unit 221. . Further, the initial text analysis unit 1122 extracts an attribute expression added to the text expression representing the object name related to the target 3D object model from the input text.

3次元造形制御部225は、パーツ合成部1034によって生成され3Dオブジェクトモデルを表わす3次元の造形物(図7参照)が形成されるように、3次元造形部230を制御する。このとき、分割されたオブジェクト毎に、3次元の造形物が形成されるように、3次元造形部230を制御する。   The three-dimensional modeling control unit 225 controls the three-dimensional modeling unit 230 so that a three-dimensional modeled object (see FIG. 7) generated by the parts synthesis unit 1034 and representing the 3D object model is formed. At this time, the three-dimensional modeling unit 230 is controlled so that a three-dimensional model is formed for each divided object.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、本発明の第11の実施の形態に係る3次元オブジェクト生成装置1100の作用について説明する。第11の実施の形態に係る3次元オブジェクト生成装置1100では、生成したい3Dオブジェクトモデルに関するオブジェクト名及び属性表現を表わす音声が、3次元オブジェクト生成装置1100に入力されると、3次元オブジェクト生成装置1100によって、上記図20及び図21に示す3次元オブジェクト生成処理ルーチンと同様の処理ルーチンが実行される。   Next, the operation of the three-dimensional object generation device 1100 according to the eleventh embodiment of the present invention will be described. In the three-dimensional object generation device 1100 according to the eleventh embodiment, when a voice representing an object name and attribute expression related to a 3D object model to be generated is input to the three-dimensional object generation device 1100, the three-dimensional object generation device 1100 is displayed. Thus, a processing routine similar to the three-dimensional object generation processing routine shown in FIGS. 20 and 21 is executed.

ただし、ステップS501からステップS103に該当する処理を、図36に示すステップS1001からステップS1006に置き換えた、3次元オブジェクト生成処理ルーチンが実行される。   However, a three-dimensional object generation processing routine is executed in which the processes corresponding to steps S501 to S103 are replaced with steps S1001 to S1006 shown in FIG.

以上、説明したように、第11の実施の形態に係るオブジェクト生成装置によれば、音声認識で入力されたテキストからオブジェクト名と属性表現とを抽出し、抽出されたオブジェクト名からパーツ群を特定し、パーツ群に属するパーツのテキスト表現と属性表現とを含む検索クエリを用いた検索の検索ヒット数に基づいて、共起の度合いを示すスコアを算出し、算出されたスコアに基づいて、パーツ群からパーツを選択し、3Dオブジェクトモデルと合成し、合成した3Dオブジェクトモデルから実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。   As described above, according to the object generation device according to the eleventh embodiment, the object name and attribute expression are extracted from the text input by speech recognition, and the part group is specified from the extracted object name. A score indicating the degree of co-occurrence is calculated based on the number of search hits of a search using a search query including a text expression and an attribute expression of parts belonging to the part group, and the part is calculated based on the calculated score. Since a part is selected from the group, synthesized with a 3D object model, and a 3D object is formed in real space as a real object from the synthesized 3D object model, the user can create a 3D object from a very easy interface. Can be obtained.

[第12の実施の形態] [Twelfth embodiment]

<システム構成> <System configuration>

次に、第12の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1〜第11の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to the twelfth embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st-11th Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第12の実施の形態では、音声入力のまま、3Dオブジェクトモデルのオブジェクト名及び属性表現を抽出している点と、音声入力のまま、編集操作を抽出している点とが、第11の実施の形態と異なっている。   In the twelfth embodiment, the point that the object name and attribute expression of the 3D object model are extracted with the voice input and the editing operation is extracted with the voice input are the eleventh embodiment. The form is different.

図34に示すように、第12の実施の形態に係る3次元オブジェクト生成装置1200は、入力部10と、演算部1220と、モデル出力部30と、3次元造形部230とを備えている。   As shown in FIG. 34, the three-dimensional object generation device 1200 according to the twelfth embodiment includes an input unit 10, a calculation unit 1220, a model output unit 30, and a three-dimensional modeling unit 230.

入力部10は、3Dオブジェクトモデルに関する音声入力を受け付ける。また、入力部10は編集操作に関する音声入力を受け付ける。終了処理に関する音声入力を受け付ける。なお、1回目(3Dオブジェクトモデルの出力前)に入力される音声入力は、3Dオブジェクトモデルのオブジェクト名及び属性表現に関する初期音声入力であり、3Dオブジェクトモデルを出力した後に入力される音声入力は、編集操作に関する対話音声入力、又は、終了処理に関する終了音声入力とする。   The input unit 10 receives a voice input related to the 3D object model. Further, the input unit 10 receives a voice input related to an editing operation. Accepts voice input related to termination processing. Note that the audio input input for the first time (before the output of the 3D object model) is an initial audio input related to the object name and attribute expression of the 3D object model, and the audio input input after outputting the 3D object model is An interactive voice input related to an editing operation or an end voice input related to an end process is used.

演算部1220は、3Dオブジェクトモデルデータベース22、音声解析部1222、対象パーツ群決定部1024、クラス名データベース1026、必要パーツ群データベース1028、パーツ選択部1030、3Dパーツモデルデータベース1032、パーツ合成部1034、3次元造形制御部225、対話音声解析部1223、及びモデル編集部828を備えている。   The calculation unit 1220 includes a 3D object model database 22, a voice analysis unit 1222, a target part group determination unit 1024, a class name database 1026, a necessary parts group database 1028, a parts selection unit 1030, a 3D parts model database 1032, a parts synthesis unit 1034, A three-dimensional modeling control unit 225, a dialogue voice analysis unit 1223, and a model editing unit 828 are provided.

音声解析部1222は、初期音声入力として入力された音声信号から、対象となる3Dオブジェクトモデルに関するオブジェクト名及び属性表現を抽出し、解析結果を対象パーツ群決定部1024及びパーツ合成部1034に出力する。   The voice analysis unit 1222 extracts the object name and attribute expression related to the target 3D object model from the voice signal input as the initial voice input, and outputs the analysis result to the target part group determination unit 1024 and the part synthesis unit 1034. .

具体的には、初期音声入力として入力された音声信号から、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名を抽出する。抽出モデルについては、音声信号とクラスラベル(オブジェクト名)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、抽出モデルを学習しておけばよい。   Specifically, the object name stored in the 3D object model database 22 is extracted from the audio signal input as the initial audio input. As for the extraction model, a plurality of learning data in which a speech signal and a class label (object name) are associated one-to-one are prepared, and the extraction model is learned based on the learning data.

また、初期音声入力として入力された音声信号から、3Dオブジェクトモデルに関する属性表現を抽出する。抽出モデルについては、音声信号とクラスラベル(属性表現)とを1対1で対応付けした学習データを複数用意し、学習データに基づいて、抽出モデルを学習しておけばよい。   In addition, attribute expressions related to the 3D object model are extracted from the audio signal input as the initial audio input. As for the extraction model, a plurality of learning data in which a speech signal and a class label (attribute expression) are associated one-to-one are prepared, and the extraction model is learned based on the learning data.

3次元造形制御部225は、パーツ合成部1034によって生成された3Dオブジェクトモデルを表わす3次元の造形物(図7参照)が形成されるように、3次元造形部230を制御する。このとき、分割されたオブジェクト毎に、3次元の造形物が形成されるように、3次元造形部230を制御する。   The three-dimensional modeling control unit 225 controls the three-dimensional modeling unit 230 so that a three-dimensional modeled object (see FIG. 7) representing the 3D object model generated by the parts synthesis unit 1034 is formed. At this time, the three-dimensional modeling unit 230 is controlled so that a three-dimensional model is formed for each divided object.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、本発明の第12の実施の形態に係る3次元オブジェクト生成装置1200の作用について説明する。第12の実施の形態に係る3次元オブジェクト生成装置1200では、生成したい3Dオブジェクトモデルに関するオブジェクト名及び属性表現を表わす音声が、3次元オブジェクト生成装置1200に入力されると、3次元オブジェクト生成装置1200によって、上記図26に示す3次元オブジェクト生成処理ルーチンと同様の処理ルーチンが実行される。   Next, the operation of the three-dimensional object generation device 1200 according to the twelfth embodiment of the present invention will be described. In the three-dimensional object generation device 1200 according to the twelfth embodiment, when a voice representing an object name and attribute expression related to a 3D object model to be generated is input to the three-dimensional object generation device 1200, the three-dimensional object generation device 1200. Thus, a processing routine similar to the three-dimensional object generation processing routine shown in FIG. 26 is executed.

ただし、ステップS803に該当する処理を、上記図36に示すステップS1002からステップS1006に置き換えた、3次元オブジェクト生成処理ルーチンが実行される。   However, a three-dimensional object generation processing routine is executed by replacing the processing corresponding to step S803 from step S1002 to step S1006 shown in FIG.

また、ステップS801においては、初期音声入力として入力された音声信号を受け付け、受け付けた音声信号から、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名を抽出する。また、初期音声入力として入力された音声信号から、3Dオブジェクトモデルに関する属性表現を抽出する。   In step S801, an audio signal input as an initial audio input is received, and an object name stored in the 3D object model database 22 is extracted from the received audio signal. In addition, attribute expressions related to the 3D object model are extracted from the audio signal input as the initial audio input.

以上、説明したように、第12の実施の形態に係るオブジェクト生成装置によれば、入力された音声信号からオブジェクト名と属性表現とを抽出し、抽出されたオブジェクト名からパーツ群を特定し、パーツ群に属するパーツのテキスト表現と属性表現とを含む検索クエリを用いた検索の検索ヒット数に基づいて、共起の度合いを示すスコアを算出し、算出されたスコアに基づいて、パーツ群からパーツを選択し、3Dオブジェクトモデルと合成し、合成した3Dオブジェクトモデルから実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。   As described above, according to the object generation device according to the twelfth embodiment, the object name and the attribute expression are extracted from the input audio signal, the parts group is specified from the extracted object name, A score indicating the degree of co-occurrence is calculated based on the number of search hits of a search using a search query including a text expression and an attribute expression of a part belonging to the part group, and from the part group based on the calculated score Select a part, synthesize it with a 3D object model, and form a 3D object in real space from the synthesized 3D object model as a real object, so the user can obtain a 3D object from a very easy interface Can do.

[第13の実施の形態] [Thirteenth embodiment]

<システム構成> <System configuration>

次に、第13の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第1〜第12の実施の形態と同様の構成及び作用となる部分については、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to a thirteenth embodiment will be described. In addition, about the part which becomes the structure and effect | action similar to 1st-12th embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第13の実施の形態では、入力された音声の認識結果が初期テキストか対話テキストかを判定している点が第12の実施の形態と異なっている。   The thirteenth embodiment is different from the twelfth embodiment in that it is determined whether the recognition result of the input speech is an initial text or a dialogue text.

図35に示すように、第13の実施の形態に係る3次元オブジェクト生成装置1300は、入力部10と、演算部1320と、モデル出力部30と、3次元造形部230とを備えている。   As illustrated in FIG. 35, the three-dimensional object generation device 1300 according to the thirteenth embodiment includes an input unit 10, a calculation unit 1320, a model output unit 30, and a three-dimensional modeling unit 230.

入力部10は、3Dオブジェクトモデルのオブジェクト名及び属性表現に関する初期テキストを表す音声入力を受け付ける。また、入力部10は、編集操作に関する対話テキストを表す音声入力を受け付ける。また、入力部10は、終了処理に関する終了テキストを表す音声入力を受け付ける。   The input unit 10 receives a voice input representing an initial text related to the object name and attribute expression of the 3D object model. In addition, the input unit 10 receives a voice input representing a dialog text related to an editing operation. In addition, the input unit 10 receives a voice input representing an end text related to the end process.

演算部1320は、3Dオブジェクトモデルデータベース22、音声認識部221、初期対話判定部921、初期テキスト解析部1322、対象パーツ群決定部1024、クラス名データベース1026、必要パーツ群データベース1028、パーツ選択部1030、3Dパーツモデルデータベース1032、パーツ合成部1034、3次元造形制御部225、対話テキスト解析部1323、及びモデル編集部528を備えている。   The calculation unit 1320 includes a 3D object model database 22, a voice recognition unit 221, an initial dialog determination unit 921, an initial text analysis unit 1322, a target part group determination unit 1024, a class name database 1026, a necessary parts group database 1028, and a parts selection unit 1030. A 3D part model database 1032, a parts synthesis unit 1034, a 3D modeling control unit 225, a dialog text analysis unit 1323, and a model editing unit 528 are provided.

音声認識部221は、入力された音声に対して、音声認識処理を行い、テキスト(例えば、「渋谷系のカレン」)に変換する。なお、音声認識処理の内容については、従来の音声認識(例えば、隠れマルコフモデルやHMMを用いた音声認識)を使えばよく、特に方式等は問わない。   The voice recognition unit 221 performs voice recognition processing on the input voice and converts it into text (for example, “Shibuya Karen”). Note that the content of the speech recognition process may be conventional speech recognition (for example, speech recognition using a hidden Markov model or HMM), and any method may be used.

初期対話判定部921は、音声認識部221から入力される音声認識処理結果のテキストについて、図28に示すように形態素解析を行う。そして、形態解析結果に基づいて、終了処理に紐付けられたキーワードが入力された場合には、当該テキストを対話テキスト解析部1323に出力する。また、終了処理に紐付けられたキーワードが入力されなかった場合には、形態素解析結果に基づいて、ルールベース又は機械学習によって、入力されたテキストが初期テキストか対話テキストかに分類する。また、初期テキストが入力されたと判定された場合には、当該テキストを初期テキスト解析部1322に出力し、対話テキストが入力されたと判定された場合には、当該テキストを対話テキスト解析部1323に出力する。ルールベースによって分類する場合には、メモリに記憶されている、音声認識処理結果のテキストに含まれていた直近のモデル名と、入力されたテキストの最後の名詞が異なる場合には、初期テキストであると判定し、それ以外の場合には、対話テキストであると判定する。   The initial dialogue determination unit 921 performs morphological analysis on the text of the speech recognition processing result input from the speech recognition unit 221 as shown in FIG. Then, when a keyword associated with the end process is input based on the form analysis result, the text is output to the dialog text analysis unit 1323. Further, when the keyword associated with the termination process is not input, the input text is classified into the initial text or the dialog text by rule base or machine learning based on the morphological analysis result. If it is determined that the initial text is input, the text is output to the initial text analysis unit 1322. If it is determined that the dialog text is input, the text is output to the dialog text analysis unit 1323. To do. When classifying by rule base, if the last model name included in the text of the speech recognition processing result stored in the memory is different from the last noun of the input text, the initial text is used. It is determined that there is, and otherwise, it is determined that the text is a dialog text.

初期テキスト解析部1322は、3Dオブジェクトモデルデータベース22に記憶されているオブジェクト名に基づいて、初期テキスト解析部1122と同様に、初期対話判定部921によって初期テキストであると判定されたテキストから、対象となる3Dオブジェクトモデルに関するオブジェクト名を表すテキスト表現を抽出する。また、初期テキスト解析部1322は、初期テキスト解析部1122と同様に、初期対話判定部921によって初期テキストであると判定されたテキストから、オブジェクト名を表すテキスト表現に付加される属性表現を抽出する。   Based on the object name stored in the 3D object model database 22, the initial text analysis unit 1322 is similar to the initial text analysis unit 1122 from the text determined by the initial dialog determination unit 921 as the initial text. A text expression representing an object name related to the 3D object model is extracted. Similarly to the initial text analysis unit 1122, the initial text analysis unit 1322 extracts attribute expressions added to the text expression representing the object name from the text determined by the initial dialog determination unit 921 as the initial text. .

3次元造形制御部225は、パーツ合成部1034によって生成された3Dオブジェクトモデルを表わす3次元の造形物(図7参照)が形成されるように、3次元造形部230を制御する。このとき、分割されたオブジェクト毎に、3次元の造形物が形成されるように、3次元造形部230を制御する。   The three-dimensional modeling control unit 225 controls the three-dimensional modeling unit 230 so that a three-dimensional modeled object (see FIG. 7) representing the 3D object model generated by the parts synthesis unit 1034 is formed. At this time, the three-dimensional modeling unit 230 is controlled so that a three-dimensional model is formed for each divided object.

<3次元オブジェクト生成装置の作用> <Operation of three-dimensional object generation device>

次に、本発明の第13の実施の形態に係る3次元オブジェクト生成装置1300の作用について説明する。第13の実施の形態に係る3次元オブジェクト生成装置1300では、まず、音声が、3次元オブジェクト生成装置1300に入力されると、3次元オブジェクト生成装置1100によって、上記図30に示す3次元オブジェクト生成処理ルーチンと同様の処理ルーチンが実行される。   Next, the operation of the three-dimensional object generation device 1300 according to the thirteenth embodiment of the present invention will be described. In the three-dimensional object generation device 1300 according to the thirteenth embodiment, first, when sound is input to the three-dimensional object generation device 1300, the three-dimensional object generation device 1100 generates the three-dimensional object shown in FIG. A processing routine similar to the processing routine is executed.

ただし、ステップS501からステップS103に該当する処理を、上記図36に示すステップS1001からステップS1006に置き換えた、3次元オブジェクト生成処理ルーチンが実行される。   However, a three-dimensional object generation processing routine is executed in which the processes corresponding to steps S501 to S103 are replaced with steps S1001 to S1006 shown in FIG.

以上、説明したように、第13の実施の形態に係るオブジェクト生成装置によれば、音声認識で入力されたテキストからオブジェクト名と属性表現とを抽出し、抽出されたオブジェクト名からパーツ群を特定し、パーツ群に属するパーツのテキスト表現と属性表現とを含む検索クエリを用いた検索の検索ヒット数に基づいて、共起の度合いを示すスコアを算出し、算出されたスコアに基づいて、パーツ群からパーツを選択し、3Dオブジェクトモデルと合成し、合成した3Dオブジェクトモデルから実物体として実空間上に3次元造形物を形成するため、ユーザが非常に容易なインタフェースから、3次元造形物を得ることができる。また、音声認識で入力されたテキストによって、3次元オブジェクトを変形させることができる。また、入力された音声によって、初期テキスト、又は対話テキストかを分類することにより、後続して、初期テキストに基づいて3次元オブジェクトを生成するか、又は対話テキストに基づいて3次元オブジェクトを編集することができる。   As described above, according to the object generation device according to the thirteenth embodiment, the object name and the attribute expression are extracted from the text input by the speech recognition, and the part group is specified from the extracted object name. A score indicating the degree of co-occurrence is calculated based on the number of search hits of a search using a search query including a text expression and an attribute expression of parts belonging to the part group, and the part is calculated based on the calculated score. Since a part is selected from the group, synthesized with a 3D object model, and a 3D object is formed in real space as a real object from the synthesized 3D object model, the user can create a 3D object from a very easy interface. Can be obtained. In addition, a three-dimensional object can be transformed by text input by voice recognition. Further, by classifying the initial text or the dialogue text according to the input voice, a three-dimensional object is subsequently generated based on the initial text, or the three-dimensional object is edited based on the dialogue text. be able to.

[第14の実施の形態] [Fourteenth embodiment]

<システム構成> <System configuration>

次に、第14の実施の形態に係る3次元オブジェクト生成装置について説明する。なお、第14の実施の形態に係る3次元オブジェクト生成装置の構成は、第10の実施の形態と同様であるため、同一符号を付して説明を省略する。   Next, a three-dimensional object generation device according to a fourteenth embodiment will be described. Note that the configuration of the three-dimensional object generation device according to the fourteenth embodiment is the same as that of the tenth embodiment, so the same reference numerals are given and description thereof is omitted.

第14の実施の形態では、クラス名に基づいて特定された複数の3Dパーツ群から、3Dパーツの組み合わせを選択している点が第10の実施の形態と異なっている。   The fourteenth embodiment is different from the tenth embodiment in that a combination of 3D parts is selected from a plurality of 3D parts groups specified based on the class name.

第14の実施の形態に係る3次元オブジェクト生成装置1000のパーツ選択部1030は、対象パーツ群決定部1024によって複数のパーツ群が特定された場合には、当該複数のパーツ群と、初期テキスト解析部1022で抽出した属性表現とに基づいて、当該複数のパーツ群に含まれる3Dパーツの組み合わせの各々に対し、属性表現と当該組み合わせに含まれる3Dパーツの各々に関するテキスト表現とが、WEB等の大規模テキスト中でどの程度共起するかという情報に基づいて、出力候補となる3Dパーツの組み合わせに対してスコアを算出し、当該複数のパーツ群から、最適なパーツの組み合わせを選択する。具体的には、既存の検索システムを用いて、複数のパーツ群の3Dパーツの組み合わせの各々について、属性表現と当該組み合わせに含まれる3Dパーツを表す文字列の各々とをAND条件で結合した検索クエリを用いて検索を行う。例えば、検索クエリ「渋谷系 AND ショートカット AND ゆるかわ」や検索クエリ「渋谷系 AND ロングヘア AND ゆるかわ」で検索する。そして、検索結果の検索ヒット数をスコアとして、最も高いスコアとなった3Dパーツの組み合わせを選択する。   When the target part group determination unit 1024 identifies a plurality of parts groups, the parts selection unit 1030 of the three-dimensional object generation device 1000 according to the fourteenth embodiment performs the initial text analysis. Based on the attribute expression extracted by the unit 1022, for each combination of 3D parts included in the plurality of parts group, an attribute expression and a text expression regarding each of the 3D parts included in the combination are Based on information on how much co-occurrence occurs in a large-scale text, a score is calculated for a combination of 3D parts that are output candidates, and an optimal combination of parts is selected from the plurality of parts groups. Specifically, using an existing search system, for each combination of 3D parts of a plurality of parts group, a search in which attribute expressions and character strings representing 3D parts included in the combination are combined with an AND condition. Perform a search using a query. For example, a search query “Shibuya-kei AND shortcut AND Yurukawa” or a search query “Shibuya-kei AND long hair AND Yurukawa” is used. Then, the combination of 3D parts having the highest score is selected with the number of search hits in the search result as a score.

なお、初期テキスト解析部1022で抽出した属性表現が複数ある場合には、複数の属性表現を含めた検索クエリを用いて検索してもよい。例えば、検索クエリ「渋谷系 AND かわいい AND ショートカット AND ゆるかわ」を用いて検索する。   When there are a plurality of attribute expressions extracted by the initial text analysis unit 1022, a search may be performed using a search query including a plurality of attribute expressions. For example, a search query “Shibuya-kei AND cute AND shortcut AND Yurukawa” is used for the search.

なお、第14の実施の形態に係る3次元オブジェクト生成装置の他の構成及び作用については、第10の実施の形態と同様であるため、説明を省略する。   Note that the other configuration and operation of the three-dimensional object generation device according to the fourteenth embodiment are the same as those of the tenth embodiment, and thus description thereof is omitted.

以上、説明したように、第14の実施の形態に係るオブジェクト生成装置によれば、複数の3Dパーツの組み合わせを表現した文字列を含む検索クエリを用いて検索することで、共起しやすい3Dパーツの組み合わせと3Dオブジェクトモデルを合成することができ、また、3Dパーツの組み合わせとしての自然性も評価できる。   As described above, according to the object generation device according to the fourteenth embodiment, 3D that is likely to co-occur by searching using a search query including a character string that represents a combination of a plurality of 3D parts. A combination of parts and a 3D object model can be synthesized, and the naturalness as a combination of 3D parts can be evaluated.

なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。   Note that the present invention is not limited to the above-described embodiment, and various modifications and applications are possible without departing from the gist of the present invention.

例えば、上述した実施の形態では、初期テキスト又は音声を受け付けて、抽出された属性表現に応じてパーツを選択し、選択した3Dパーツと3Dオブジェクトモデルを合成する場合を例に説明したが、これに限定されるものではなく、対話テキスト又は音声の解析において、パーツ群を表す文字列又は3Dパーツ名を表す文字列が抽出された場合には、モデル編集においては、抽出された文字列に対応する3Dパーツを対象に編集処理を行ってもよい。例えば、入力テキスト又は音声が「髪型をもっとかわいく」であり、パーツ群を表す文字列「髪型」が抽出された場合には、「髪型」の3Dパーツを対象に編集処理を行ってもよい。   For example, in the embodiment described above, an example has been described in which an initial text or voice is received, a part is selected according to the extracted attribute expression, and the selected 3D part and the 3D object model are synthesized. It is not limited to the above. When a character string representing a part group or a character string representing a 3D part name is extracted in the analysis of dialog text or speech, the model editing corresponds to the extracted character string. Editing processing may be performed on 3D parts to be processed. For example, if the input text or voice is “more cute hairstyle” and a character string “hairstyle” representing a group of parts is extracted, the editing process may be performed on the 3D parts of “hairstyle”.

また、上記の第10の実施の形態及び第14の実施の形態において、上述した第11から第13の実施の形態と同様に、3次元造形部によって、3Dオブジェクトモデルを表わす3次元造形物を形成するようにしてもよい。また、前述した第11から第13の実施の形態と同様に、音声入力を受け付けて、音声認識により入力されたテキストを解析するようにしてもよい。   In the tenth embodiment and the fourteenth embodiment, a three-dimensional structure representing a 3D object model is formed by the three-dimensional structure unit as in the eleventh to thirteenth embodiments described above. You may make it form. Further, as in the above-described eleventh to thirteenth embodiments, a voice input may be received and a text input by voice recognition may be analyzed.

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。   In the present specification, the embodiment has been described in which the program is installed in advance. However, the program can be provided by being stored in a computer-readable recording medium.

10 入力部
20、220、320、420、520、620、720、820、920、1020、1120、1220、1320 演算部
21、321 テキスト解析部
22 3Dオブジェクトモデルデータベース
23、423 モデル取得部
24、324、524、724 モデル変形部
30 モデル出力部
100、200、300、400、500、600、700、800、900、1000、1100、1200、1300 3次元オブジェクト生成装置
221 音声認識部
225 3次元造形制御部
230 3次元造形部
421、1222 音声解析部
521、721、1022、1322 初期テキスト解析部
526、626、726、926、1023、1323 対話テキスト解析部
528、828 モデル編集部
550 終了判定部
552 単語抽出部
554 操作候補抽出部
556 単語選択部
557 操作順位付け部
558 連結部
560 変化量算出部
570 単語対操作変換用データベース
572 自然文集合データベース
574 キーワード対操作候補対応データベース
576 連用詞データベース
821、1223 対話音声解析部
921 初期対話判定部
1024 対象パーツ群決定部
1026 クラス名データベース
1028 必要パーツ群データベース
1030 パーツ選択部
1032 パーツモデルデータベース
1034 パーツ合成部
10 Input unit 20, 220, 320, 420, 520, 620, 720, 820, 920, 1020, 1120, 1220, 1320 Calculation unit 21, 321 Text analysis unit 22 3D object model database 23, 423 Model acquisition unit 24, 324 524, 724 Model deformation unit 30 Model output unit 100, 200, 300, 400, 500, 600, 700, 800, 900, 1000, 1100, 1200, 1300 3D object generation device 221 Speech recognition unit 225 3D modeling control Unit 230 Three-dimensional modeling unit 421, 1222 Voice analysis unit 521, 721, 1022, 1322 Initial text analysis unit 526, 626, 726, 926, 1023, 1323 Dialog text analysis unit 528, 828 Model editing unit 550 End determination unit 552 Word extraction unit 554 Operation candidate extraction unit 556 Word selection unit 557 Operation ranking unit 558 Connection unit 560 Change amount calculation unit 570 Word-to-operation conversion database 572 Natural sentence set database 574 Keyword-to-operation candidate correspondence database 576 Conjunctive database 821, 1223 Dialogue voice analysis unit 921 Initial dialogue determination unit 1024 Target part group determination unit 1026 Class name database 1028 Required parts group database 1030 Parts selection unit 1032 Parts model database 1034 Parts composition unit

Claims (8)

入力されたテキスト及び音声の少なくとも一方から、オブジェクトモデルに関するオブジェクト名と、前記オブジェクト名に付加される属性表現とを抽出するテキスト解析部と、
前記テキスト解析部によって抽出されたオブジェクト名に基づいて、前記オブジェクト名のオブジェクトモデルのパーツであって、対応する複数のパーツからなるパーツ群を特定するパーツ群決定部と、
前記パーツ群決定部によって特定されたパーツ群に属する複数のパーツの各々について、前記パーツを表現する文字列と、前記テキスト解析部によって抽出された属性表現との共起度を算出し、前記特定されたパーツ群に属する複数のパーツから、前記算出された共起度に基づいて、パーツを選択するパーツ選択部と、
前記テキスト解析部によって抽出されたオブジェクト名に対応するオブジェクトモデルと、前記パーツ選択部によって選択された前記パーツとを合成するパーツ合成部と、
を含むオブジェクト生成装置。
A text analysis unit that extracts an object name related to the object model and an attribute expression added to the object name from at least one of the input text and voice;
Based on the object name extracted by the text analysis unit, a part group determining unit that identifies a part group consisting of a plurality of corresponding parts that are parts of the object model of the object name;
For each of a plurality of parts belonging to the part group specified by the part group determination unit, a co-occurrence degree between the character string expressing the part and the attribute expression extracted by the text analysis unit is calculated, and the specification A parts selection unit that selects parts based on the calculated co-occurrence degree from a plurality of parts belonging to the selected parts group;
A part synthesis unit that synthesizes the object model corresponding to the object name extracted by the text analysis unit and the part selected by the part selection unit;
An object generation device including:
前記パーツ群決定部は、前記オブジェクト名の各々に対して予め定められた前記オブジェクトモデルのクラス名を記憶したクラス名データベースから、前記テキスト解析部によって抽出されたオブジェクト名に対する前記オブジェクトモデルのクラス名を取得し、前記オブジェクトモデルのクラス名の各々に対して予め定められた前記パーツ群を記憶した必要パーツ群データベースから、前記取得したクラス名に対する前記パーツ群を取得する請求項1記載のオブジェクト生成装置。   The part group determination unit is configured to store a class name of the object model corresponding to the object name extracted by the text analysis unit from a class name database storing a class name of the object model predetermined for each of the object names. 2. The object generation according to claim 1, wherein the part group corresponding to the acquired class name is acquired from a necessary part group database storing the part group predetermined for each class name of the object model. apparatus. 前記パーツ選択部は、前記パーツ群決定部によって特定されたパーツ群に属する複数のパーツの各々について、前記パーツを表現する文字列と、前記テキスト解析部によって抽出された属性表現とを含む検索クエリを用いて、大規模テキストに対して検索を行い、検索結果により得られた検索ヒット数に基づいて前記共起度を算出し、前記特定されたパーツ群に属する複数のパーツから、前記算出された共起度に基づいて、パーツを選択する請求項1又は2記載のオブジェクト生成装置。   The part selection unit includes a search query including a character string representing the part and an attribute expression extracted by the text analysis unit for each of a plurality of parts belonging to the part group specified by the part group determination unit. The co-occurrence degree is calculated based on the number of search hits obtained from the search result, and the calculated from a plurality of parts belonging to the specified part group. The object generation device according to claim 1, wherein a part is selected based on the degree of co-occurrence. 前記パーツ群決定部は、前記テキスト解析部によって抽出されたオブジェクト名に基づいて、少なくとも1つの前記パーツ群を特定し、
前記パーツ選択部は、前記パーツ群決定部によって特定された前記少なくとも1つのパーツ群の各々に属するパーツの組み合わせの各々について、前記組み合わせのパーツの各々を表現する文字列と、前記テキスト解析部によって抽出された属性表現とを含む検索クエリを用いて、大規模テキストに対して検索を行い、検索結果により得られた検索ヒット数に基づいて前記共起度を算出し、前記特定された前記少なくとも1つのパーツ群の各々に属するパーツの組み合わせから、前記算出された共起度に基づいて、前記パーツの組み合わせを選択し、
前記パーツ合成部は、前記テキスト解析部によって抽出されたオブジェクト名に対応するオブジェクトモデルと、前記パーツ選択部によって選択された前記パーツの組み合わせとを合成する請求項1又は2記載のオブジェクト生成装置。
The part group determination unit identifies at least one part group based on the object name extracted by the text analysis unit,
The part selection unit includes a character string representing each of the combination parts and a text analysis unit for each combination of parts belonging to each of the at least one part group specified by the parts group determination unit. A search is performed on a large-scale text using a search query including the extracted attribute expression, the co-occurrence degree is calculated based on the number of search hits obtained from the search result, and the specified at least the specified From the combination of parts belonging to each of one part group, the combination of the parts is selected based on the calculated co-occurrence degree,
The object generation device according to claim 1, wherein the parts synthesis unit synthesizes an object model corresponding to the object name extracted by the text analysis unit and a combination of the parts selected by the parts selection unit.
前記パーツ合成部によって前記オブジェクトモデルと前記パーツとを合成することにより生成された3次元オブジェクトモデルに基づいて、3次元の造形物を形成する3次元造形部を更に含む請求項1〜4いずれか1項記載のオブジェクト生成装置。   5. The apparatus according to claim 1, further comprising a three-dimensional modeling unit that forms a three-dimensional model based on a three-dimensional object model generated by synthesizing the object model and the part by the parts synthesis unit. The object generation device according to claim 1. テキスト解析部が、入力されたテキスト及び音声の少なくとも一方から、オブジェクトモデルに関するオブジェクト名と、前記オブジェクト名に付加される属性表現とを抽出するステップと、
パーツ群決定部が、前記テキスト解析部によって抽出されたオブジェクト名に基づいて、前記オブジェクト名のオブジェクトモデルのパーツであって、対応する複数のパーツからなるパーツ群を特定するステップと、
パーツ選択部が、前記パーツ群決定部によって特定されたパーツ群に属する複数のパーツの各々について、前記パーツを表現する文字列と、前記テキスト解析部によって抽出された属性表現との共起度を算出し、前記特定されたパーツ群に属する複数のパーツから、前記算出された共起度に基づいて、パーツを選択するステップと、
パーツ合成部が、前記テキスト解析部によって抽出されたオブジェクト名に対応するオブジェクトモデルと、前記パーツ選択部によって選択された前記パーツとを合成するステップと、
を含むオブジェクト生成方法。
A step in which a text analysis unit extracts an object name related to an object model and an attribute expression added to the object name from at least one of input text and voice;
A part group determination unit, based on the object name extracted by the text analysis unit, identifying a part group consisting of a plurality of corresponding parts that are parts of the object model of the object name;
For each of a plurality of parts belonging to the part group specified by the parts group determination unit, the part selection unit determines the co-occurrence of the character string expressing the part and the attribute expression extracted by the text analysis unit. Calculating and selecting a part from a plurality of parts belonging to the specified part group based on the calculated co-occurrence degree;
A step of synthesizing an object model corresponding to the object name extracted by the text analysis unit and the part selected by the parts selection unit;
Object generation method including
コンピュータを、請求項1〜請求項4の何れか1項記載のオブジェクト生成装置を構成する各部として機能させるためのプログラム。   The program for functioning a computer as each part which comprises the object production | generation apparatus of any one of Claims 1-4. コンピュータを、請求項5に記載のオブジェクト生成装置を構成する各部として機能させるためのプログラム。   The program for functioning a computer as each part which comprises the object production | generation apparatus of Claim 5.
JP2014055386A 2014-03-18 2014-03-18 Object generation device, method, and program Expired - Fee Related JP5833166B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014055386A JP5833166B2 (en) 2014-03-18 2014-03-18 Object generation device, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014055386A JP5833166B2 (en) 2014-03-18 2014-03-18 Object generation device, method, and program

Publications (2)

Publication Number Publication Date
JP2015179315A true JP2015179315A (en) 2015-10-08
JP5833166B2 JP5833166B2 (en) 2015-12-16

Family

ID=54263342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014055386A Expired - Fee Related JP5833166B2 (en) 2014-03-18 2014-03-18 Object generation device, method, and program

Country Status (1)

Country Link
JP (1) JP5833166B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111488313A (en) * 2020-03-13 2020-08-04 上海外高桥造船有限公司 Tribon-based model name batch processing method and system
US11635747B2 (en) * 2016-10-27 2023-04-25 Desprez, Llc System and method for generating fabrication parameters of a part to be fabricated

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6277642A (en) * 1985-09-20 1987-04-09 Fujitsu Ltd Voice cad
JPH0370027A (en) * 1989-08-08 1991-03-26 Nec Corp Operation instructing voice command system for cad system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6277642A (en) * 1985-09-20 1987-04-09 Fujitsu Ltd Voice cad
JPH0370027A (en) * 1989-08-08 1991-03-26 Nec Corp Operation instructing voice command system for cad system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11635747B2 (en) * 2016-10-27 2023-04-25 Desprez, Llc System and method for generating fabrication parameters of a part to be fabricated
CN111488313A (en) * 2020-03-13 2020-08-04 上海外高桥造船有限公司 Tribon-based model name batch processing method and system
CN111488313B (en) * 2020-03-13 2024-02-02 上海外高桥造船有限公司 Model name batch processing method and system based on Tribon

Also Published As

Publication number Publication date
JP5833166B2 (en) 2015-12-16

Similar Documents

Publication Publication Date Title
US9280967B2 (en) Apparatus and method for estimating utterance style of each sentence in documents, and non-transitory computer readable medium thereof
CN110795913B (en) Text encoding method, device, storage medium and terminal
WO2016151700A1 (en) Intention understanding device, method and program
JP6955963B2 (en) Search device, similarity calculation method, and program
CN109920409B (en) Sound retrieval method, device, system and storage medium
Jänicke et al. Interactive visual alignment of medieval text versions
CN113157727B (en) Method, apparatus and storage medium for providing recall result
JP2012083543A (en) Language model creation device, method thereof, and program thereof
CN116542817B (en) Intelligent digital lawyer consultation method and system
KR101410601B1 (en) Spoken dialogue system using humor utterance and method thereof
TWI470620B (en) Method and system for text to speech conversion
JP2015215626A (en) Document reading-aloud support device, document reading-aloud support method, and document reading-aloud support program
CN114219880A (en) Method and device for generating expression animation
JP5833166B2 (en) Object generation device, method, and program
JP5604574B1 (en) Object generation device, method, and program
JP2008176489A (en) Text discrimination device and text discrimination method
JP5611270B2 (en) Word dividing device and word dividing method
Păiş et al. Human-machine interaction speech corpus from the robin project
JP5701941B2 (en) Three-dimensional object identification device, three-dimensional object generation device, method, and program
JP2011129006A (en) Semantic classification device, semantic classification method, and semantic classification program
JP6545634B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
Ogihara et al. The semantic shapes of popular music lyrics: Graph-based representation, analysis, and interpretation of popular music lyrics in semantic natural language embedding space
CN114911973A (en) Action generation method and device, electronic equipment and storage medium
WO2022107328A1 (en) Machine learning program, machine learning method, and natural language processing device
JP5337705B2 (en) Chinese banner generation

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151028

R150 Certificate of patent or registration of utility model

Ref document number: 5833166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees