JP7284385B2 - Object attitude control program and object attitude control system - Google Patents

Object attitude control program and object attitude control system Download PDF

Info

Publication number
JP7284385B2
JP7284385B2 JP2019057267A JP2019057267A JP7284385B2 JP 7284385 B2 JP7284385 B2 JP 7284385B2 JP 2019057267 A JP2019057267 A JP 2019057267A JP 2019057267 A JP2019057267 A JP 2019057267A JP 7284385 B2 JP7284385 B2 JP 7284385B2
Authority
JP
Japan
Prior art keywords
target
target part
attitude control
setting
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019057267A
Other languages
Japanese (ja)
Other versions
JP2020160615A (en
Inventor
一希 小林
Original Assignee
株式会社Mixi
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Mixi filed Critical 株式会社Mixi
Priority to JP2019057267A priority Critical patent/JP7284385B2/en
Publication of JP2020160615A publication Critical patent/JP2020160615A/en
Priority to JP2023077396A priority patent/JP2023099603A/en
Application granted granted Critical
Publication of JP7284385B2 publication Critical patent/JP7284385B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明はオブジェクト姿勢制御プログラムおよびオブジェクト姿勢制御システムに関する。 The present invention relates to an object attitude control program and an object attitude control system.

近年、電子機器の発展により、高精細の静止画および動画をスマートフォンやパーソナルコンピュータなどの端末に表示することが可能となった。さらに、情報処理技術の研究開発も進展しており、拡張現実(AR:Augumented Reality)を用いて仮想空間と現実空間を融合させた表示技術も実用可能になりつつある。例えば、特許文献1には情報端末の表示領域に仮想空間に配置されたオブジェクトを表示する技術が開示されている。 In recent years, with the development of electronic devices, it has become possible to display high-definition still images and moving images on terminals such as smartphones and personal computers. Furthermore, research and development of information processing technology is progressing, and a display technology that combines virtual space and real space using augmented reality (AR) is becoming practical. For example, Patent Literature 1 discloses a technique for displaying an object arranged in a virtual space in a display area of an information terminal.

特開2015-41126号公報JP 2015-41126 A

一方で、表示領域に表示されたオブジェクトの姿勢の制御は、対象となる部位を指定するうえで、入力処理が複雑となる場合がある。 On the other hand, in order to control the posture of the object displayed in the display area, the input processing may become complicated when specifying the target part.

このような課題に鑑み、本発明の目的の一つは、仮想空間に配置されたオブジェクトの姿勢を容易に制御することにある。 In view of such problems, one of the objects of the present invention is to easily control the orientation of an object placed in a virtual space.

本発明の一実施形態によれば、情報処理装置に、仮想空間に配置された、複数の連動する部位を有するオブジェクトを表示部に表示し、前記情報処理装置の動きに関する情報に基づいて、複数の連動する部位のうち一部の対象部位を移動するように前記オブジェクトの姿勢を制御することを実行させるためのオブジェクト姿勢制御プログラムが提供される。 According to one embodiment of the present invention, an information processing device displays an object having a plurality of interlocking parts arranged in a virtual space on a display unit, and based on information about the movement of the information processing device, a plurality of objects are displayed. An object attitude control program is provided for controlling the attitude of the object so as to move a part of the target parts among the interlocking parts.

上記オブジェクト姿勢制御プログラムにおいて、前記情報処理装置は、設定部を有し、前記設定部は、前記表示部に表示されたオブジェクトの一部がタッチ操作されたときに入力された情報に基づいて、前記複数の連動する部位のうち一部の対象部位を設定してもよい。 In the above object posture control program, the information processing device has a setting unit, and the setting unit, based on information input when part of the object displayed on the display unit is touch-operated, A part of the target parts may be set among the plurality of interlocking parts.

上記オブジェクト姿勢制御プログラムにおいて、前記設定部は、前記複数の連動する部位のうち前記一部であって、前記オブジェクトの移動可能な第1対象部位を設定し、前記複数の連動する部位のうち第2対象部位は、設定された前記第1対象部位に基づいて前記設定部により設定され、前記第1対象部位は、前記第2対象部位を基準として移動してもよい。 In the above object posture control program, the setting unit sets a first target portion, which is the part of the plurality of interlocking parts and is movable of the object, and sets a first target part among the plurality of interlocking parts. The second target part may be set by the setting unit based on the set first target part, and the first target part may be moved based on the second target part.

上記オブジェクト姿勢制御プログラムにおいて、前記第1対象部位が可動領域の限界点に到達したときに、前記第2対象部位に連結し、前記第2対象部位に対して前記第1対象部位の反対側に設けられた第3対象部位を設定し、前記第3対象部位を基準にして前記オブジェクトの前記第2対象部位が移動することを含んでもよい。 In the object posture control program, when the first target part reaches the limit point of the movable area, the second target part is connected to the second target part, and the second target part is moved to the opposite side of the first target part with respect to the second target part. The method may include setting a provided third target portion and moving the second target portion of the object with respect to the third target portion.

上記オブジェクト姿勢制御プログラムにおいて、前記表示部に表示された前記オブジェクトにおいて、前記第1対象部位または前記第2対象部位を設定するときに複数の部位が重畳する部分が指定されたとき、前記オブジェクトの表示される方向を変更してもよい。 In the object posture control program, when a portion where a plurality of parts overlap is designated when setting the first target part or the second target part in the object displayed on the display unit, You may change the displayed direction.

上記オブジェクト姿勢制御プログラムにおいて、前記表示部に表示されたオブジェクトにおいて、前記第1対象部位または前記第2対象部位を設定するときに複数の部位が重畳する部分が指定されたとき、所定の条件を満たす部位を前記第1対象部位または前記第2対象部位として設定してもよい。 In the object posture control program, when a portion where a plurality of parts overlap is designated when setting the first target part or the second target part in the object displayed on the display unit, a predetermined condition is set. The site to be satisfied may be set as the first target site or the second target site.

上記オブジェクト姿勢制御プログラムにおいて、前記表示部に表示された前記オブジェクトにおいて、前記第1対象部位または前記第2対象部位を設定するときに複数の部位が重畳する部分が指定されたとき、前記重畳する部分に対する所定の操作に基づいて、前記第1対象部位または前記第2対象部位を設定してもよい。 In the object posture control program, when a portion where a plurality of parts overlap is specified when setting the first target part or the second target part in the object displayed on the display unit, the overlapping part is specified. The first target part or the second target part may be set based on a predetermined operation on the part.

上記オブジェクト姿勢制御プログラムにおいて、前記第1対象部位および前記第2対象部位とは異なる、前記オブジェクトの移動可能な第4対象部位を設定し、前記第4対象部位に連結された第5対象部位を設定し、前記情報処理装置の動きに関する情報に基づいて、前記第2対象部位を基準として前記オブジェクトの前記第1対象部位が移動し、前記第5対象部位を基準として前記第4対象部位が移動してもよい。 In the object posture control program, a movable fourth target portion of the object, which is different from the first target portion and the second target portion, is set, and a fifth target portion connected to the fourth target portion is set. and moving the first target part of the object with reference to the second target part, and moving the fourth target part with reference to the fifth target part, based on the information about the movement of the information processing device. You may

上記オブジェクト姿勢制御プログラムにおいて、前記オブジェクトの前記第1対象部位が移動して、前記第1対象部位および前記第2対象部位とは異なる移動可能な部位に接触したときに第4対象部位として設定し、前記第4対象部位に連結された第5対象部位を設定し、前記第1対象部位の移動に基づき、前記第5対象部位を基準として前記第4対象部位が移動してもよい。 In the object posture control program, when the first target part of the object moves and contacts a movable part different from the first target part and the second target part, the fourth target part is set. , a fifth target part connected to the fourth target part may be set, and the fourth target part may move with respect to the fifth target part based on the movement of the first target part.

上記オブジェクト姿勢制御プログラムにおいて、前記第1対象部位または前記第2対象部位がタッチされた状態で、前記情報処理装置が移動したときに、前記表示されたオブジェクトが静止した状態で、前記仮想空間上の前記オブジェクトの前記第2対象部位を基準として前記第1対象部位が移動してもよい。 In the object posture control program, when the information processing device moves while the first target portion or the second target portion is touched, the displayed object remains stationary in the virtual space. The first target portion may move with respect to the second target portion of the object.

本発明の一実施形態によれば、仮想空間に配置されたオブジェクトの姿勢を制御するオブジェクト姿勢制御システムであって、複数の連動する部位を有する前記オブジェクトを表示部に表示し、情報処理装置の動きに関する情報に基づいて、前記複数の連動する部位のうち一部を移動するように前記オブジェクトの姿勢を制御する、オブジェクト姿勢制御システムが提供される。 According to one embodiment of the present invention, there is provided an object attitude control system for controlling the attitude of an object placed in a virtual space, wherein the object having a plurality of interlocking parts is displayed on a display unit, and an information processing apparatus An object attitude control system is provided that controls the attitude of the object so as to move part of the plurality of interlocking parts based on information about movement.

本発明の一実施形態によれば、仮想空間に配置されたオブジェクトの姿勢を制御する情報処理装置であって、複数の連動する部位を有する前記オブジェクトを表示部に表示し、前記情報処理装置の動きに関する情報に基づいて、前記複数の連動する部位のうち一部の対象部位を移動するように前記オブジェクトの姿勢を制御する、情報処理装置が提供される。 According to one embodiment of the present invention, there is provided an information processing apparatus for controlling the posture of an object placed in a virtual space, wherein the object having a plurality of interlocking parts is displayed on a display unit, and the information processing apparatus An information processing apparatus is provided that controls the posture of the object so as to move a part of the target parts among the plurality of interlocking parts based on information about movement.

本発明の一実施形態を用いることにより、オブジェクトの姿勢を容易に制御することができる。 By using an embodiment of the present invention, the pose of an object can be easily controlled.

本発明の第1実施形態に係るオブジェクト姿勢制御システムにおけるハードウェアの構成を示す図である。3 is a diagram showing the hardware configuration of the object attitude control system according to the first embodiment of the present invention; FIG. 本発明の第1実施形態に係るオブジェクト姿勢制御部の機能ブロック図である。4 is a functional block diagram of an object attitude control unit according to the first embodiment of the present invention; FIG. 本発明の第1実施形態に係るオブジェクト姿勢制御処理のフロー図である。FIG. 4 is a flowchart of object attitude control processing according to the first embodiment of the present invention; 本発明の第1実施形態に係る第1オブジェクト姿勢制御処理のフロー図である。FIG. 5 is a flowchart of first object attitude control processing according to the first embodiment of the present invention; 本発明の第1実施形態に係る第1オブジェクト姿勢制御処理における仮想空間の座標と情報処理装置に表示される座標との位置合わせの一例である。It is an example of alignment between the coordinates of the virtual space and the coordinates displayed on the information processing device in the first object attitude control process according to the first embodiment of the present invention. 本発明の第1実施形態に係るオブジェクトの各部位の座標の一例である。It is an example of the coordinates of each part of the object according to the first embodiment of the present invention. 本発明の第1実施形態に係る第1オブジェクト姿勢制御処理における情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of a user interface displayed on the display unit of the information processing device in the first object attitude control process according to the first embodiment of the present invention. 本発明の第1実施形態に係る第2オブジェクト姿勢制御処理のフロー図である。FIG. 9 is a flow diagram of second object attitude control processing according to the first embodiment of the present invention; 本発明の第1実施形態に係る第2オブジェクト姿勢制御処理における情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of a user interface displayed on the display unit of the information processing device in the second object attitude control process according to the first embodiment of the present invention. 本発明の第1実施形態に係る第2オブジェクト姿勢制御処理における情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of a user interface displayed on the display unit of the information processing device in the second object attitude control process according to the first embodiment of the present invention. 本発明の第1実施形態に係る第3オブジェクト姿勢制御処理のフロー図である。FIG. 9 is a flowchart of third object attitude control processing according to the first embodiment of the present invention; 本発明の第1実施形態に係る第3オブジェクト姿勢制御処理における情報処理装置の位置を変更させたときの一例である。It is an example when the position of the information processing device is changed in the third object attitude control process according to the first embodiment of the present invention. 本発明の第1実施形態に係る第3オブジェクト姿勢制御処理における、端末の移動前、移動後の位置座標およびオブジェクトの位置座標である。It is the position coordinates of the terminal before and after movement and the position coordinates of the object in the third object attitude control process according to the first embodiment of the present invention. 本発明の第1実施形態に係る第3オブジェクト姿勢制御処理における情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of a user interface displayed on the display unit of the information processing device in the third object attitude control process according to the first embodiment of the present invention. 本発明の第2実施形態に係る情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of a user interface displayed on the display unit of the information processing apparatus according to the second embodiment of the present invention. 本発明の第2実施形態に係る情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of a user interface displayed on the display unit of the information processing apparatus according to the second embodiment of the present invention. 本発明の第3実施形態に係るオブジェクト姿勢制御部の機能ブロック図である。FIG. 12 is a functional block diagram of an object attitude control unit according to the third embodiment of the present invention; 本発明の第3実施形態に係る第3オブジェクト姿勢制御処理のフロー図である。FIG. 14 is a flowchart of third object attitude control processing according to the third embodiment of the present invention; 各部位の可動領域を示すデータ構造である。It is a data structure showing the movable area of each part. 本発明の第3実施形態に係る第3オブジェクト姿勢制御処理における情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of the user interface displayed on the display unit of the information processing device in the third object attitude control process according to the third embodiment of the present invention. 本発明の第3実施形態に係る第3オブジェクト姿勢制御処理における情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of the user interface displayed on the display unit of the information processing device in the third object attitude control process according to the third embodiment of the present invention. 本発明の第4実施形態に係るオブジェクト姿勢制御部の機能ブロック図である。FIG. 14 is a functional block diagram of an object attitude control unit according to the fourth embodiment of the present invention; 本発明の第4実施形態に係る第2オブジェクト姿勢制御処理のフロー図である。FIG. 14 is a flowchart of second object attitude control processing according to the fourth embodiment of the present invention; 本発明の第4実施形態に係る第2オブジェクト姿勢制御処理における情報処理装置の表示部に表示されたユーザインターフェースの変形例の一例である。It is an example of a modified example of the user interface displayed on the display unit of the information processing device in the second object attitude control process according to the fourth embodiment of the present invention. 本発明の第4実施形態に係る第3オブジェクト姿勢制御処理のフロー図である。FIG. 20 is a flowchart of third object attitude control processing according to the fourth embodiment of the present invention; 本発明の第4実施形態に係る第3オブジェクト姿勢制御処理における情報処理装置の位置を変更させたときの一例である。It is an example when the position of the information processing device is changed in the third object attitude control process according to the fourth embodiment of the present invention. 本発明の第4実施形態に係る情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of the user interface displayed on the display unit of the information processing apparatus according to the fourth embodiment of the present invention. 本発明の第5実施形態に係る情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of the user interface displayed on the display unit of the information processing apparatus according to the fifth embodiment of the present invention. 本発明の第5実施形態に係る情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of the user interface displayed on the display unit of the information processing apparatus according to the fifth embodiment of the present invention. 本発明の第5実施形態に係る情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of the user interface displayed on the display unit of the information processing apparatus according to the fifth embodiment of the present invention. 本発明の第6実施形態に係る情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of the user interface displayed on the display unit of the information processing apparatus according to the sixth embodiment of the present invention. 本発明の第6実施形態に係る情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of the user interface displayed on the display unit of the information processing apparatus according to the sixth embodiment of the present invention. 本発明の第7実施形態に係る端末の移動前後のオブジェクトの第1対象部位の座標のデータ構造である。FIG. 11 is a data structure of coordinates of a first target portion of an object before and after movement of the terminal according to the seventh embodiment of the present invention; FIG. 本発明の第7実施形態に係る情報処理装置の表示部に表示されたユーザインターフェースの一例である。It is an example of the user interface displayed on the display part of the information processing apparatus which concerns on 7th Embodiment of this invention. 本発明の第1実施形態に係るオブジェクト姿勢制御システムにおけるハードウェアの構成の変形例である。It is a modification of the hardware configuration in the object attitude control system according to the first embodiment of the present invention.

以下、本発明の実施の形態を、図面等を参照しながら説明する。但し、本発明は多くの異なる態様で実施することが可能であり、以下に例示する実施の形態の記載内容に限定して解釈されるものではない。図面は説明をより明確にするため、模式的に表される場合があるが、あくまで一例であって、本発明の解釈を限定するものではない。また、各要素に対する「第1」、「第2」と付記された文字は、各要素を区別するために用いられる便宜的な標識であり、特段の説明がない限りそれ以上の意味を有さない。なお、本実施形態で参照する図面において、同一部分または同様な機能を有する部分には同一の符号または類似の符号(数字xxxにA,Bを付しただけの符号)を付し、その繰り返しの説明は省略する場合がある。また、構成の一部が図面から省略されたりする場合がある。その他、本発明の属する分野における通常に知識を有する者であれば認識できるものである場合、特段の説明を行わないものとする。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention can be implemented in many different aspects and should not be construed as being limited to the description of the embodiments exemplified below. Although the drawings may be represented schematically in order to make the description clearer, they are only examples and do not limit the interpretation of the present invention. In addition, the letters "first" and "second" for each element are labels for convenience used to distinguish each element, and unless otherwise specified, have more meaning. do not have. In the drawings referred to in this embodiment, the same parts or parts having similar functions are denoted by the same reference numerals or similar reference numerals (numerals xxx with A and B only), and the repetition thereof Description may be omitted. Also, part of the configuration may be omitted from the drawing. In addition, no particular description will be given if it is something that can be recognized by a person who has ordinary knowledge in the field to which the present invention belongs.

本発明の一実施形態において記載される「対象部位」とは、オブジェクトが有する移動可能な部位をいい、複数の対象部位を組み合わせることにより連動する部位が構成される。第1対象部位は、連動する部位のうち移動する部位に相当する。第2対象部位は、連動する部位のうち設定された第1対象部位に基づいて第1対象部位の動きの支点となる部位に相当する。 A "target part" described in one embodiment of the present invention refers to a movable part of an object, and a linked part is configured by combining a plurality of target parts. The first target part corresponds to a moving part of the interlocking parts. The second target part corresponds to a part serving as a fulcrum of movement of the first target part based on the set first target part among the interlocking parts.

<第1実施形態>
本発明の第1実施形態に係るオブジェクト姿勢制御システムについて、図面を参照しながら詳細に説明する。
<First Embodiment>
An object attitude control system according to a first embodiment of the present invention will be described in detail with reference to the drawings.

(1-1.オブジェクト姿勢制御システムのハードウェア構成)
図1に、オブジェクト姿勢制御システム1のハードウェア構成および機能ブロック図を示す。図1に示すように、オブジェクト姿勢制御システム1は、端末10およびサーバ20を含む。端末10およびサーバ20を合わせて情報処理装置という場合がある。
(1-1. Hardware Configuration of Object Attitude Control System)
FIG. 1 shows a hardware configuration and functional block diagram of an object attitude control system 1. As shown in FIG. As shown in FIG. 1, object attitude control system 1 includes terminal 10 and server 20 . The terminal 10 and the server 20 may be collectively referred to as an information processing device.

端末10は、コンピュータの一つであり、表示部11、制御部12、記憶部13、操作部14、通信部15、センサ部16、カメラ部17、およびマイク部18を有する。この例では、端末10としてスマートフォンが用いられる。なお、スマートフォンに限定されず、携帯電話(フィーチャーフォン)、タブレット型端末、ノートPC(Personal Computer)、IoTデバイス(電源機構、通信機能および情報記憶機構を備えた機器)などでもよく、ネットワークを通じてサーバ20と通信可能なものであれば適用可能である。 The terminal 10 is one of computers and has a display section 11 , a control section 12 , a storage section 13 , an operation section 14 , a communication section 15 , a sensor section 16 , a camera section 17 and a microphone section 18 . In this example, a smart phone is used as the terminal 10 . In addition, it is not limited to smartphones, and may be mobile phones (feature phones), tablet terminals, notebook PCs (Personal Computers), IoT devices (devices equipped with power supply mechanisms, communication functions, and information storage mechanisms), etc., and servers through networks. Any device that can communicate with 20 is applicable.

表示部11は、液晶ディスプレイまたは有機ELディスプレイなどの表示デバイスであって、制御部12から入力される信号により表示内容が制御される。 The display unit 11 is a display device such as a liquid crystal display or an organic EL display, and display contents are controlled by signals input from the control unit 12 .

制御部12は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Flexibe Programable Gate Array)を備えることで実現される。制御部12は、表示部11および操作部14の操作に基づいて、記憶部13に記憶されたオブジェクト姿勢制御プログラムを含むアプリケーションを実行させる。 The control unit 12 is implemented by including a CPU (Central Processing Unit), RAM (Random Access Memory), ASIC (Application Specific Integrated Circuit), or FPGA (Flexible Programmable Gate Array). The control unit 12 causes the application including the object posture control program stored in the storage unit 13 to be executed based on the operations of the display unit 11 and the operation unit 14 .

記憶部13は、オブジェクト姿勢制御用プログラム、およびオブジェクト姿勢制御用プログラムで用いられる空間情報を記憶するデータベースとしての機能を有する。記憶部13には、メモリ、SSD、または記憶可能な素子が用いられる。 The storage unit 13 has a function as a database that stores an object attitude control program and spatial information used in the object attitude control program. A memory, an SSD, or an element capable of storing information is used for the storage unit 13 .

操作部14は、コントローラー、ボタン、またはスイッチを含む。操作部14は、上下左右への移動、押圧、または回転などの動作がなされることにより、その動作に基づく情報が制御部12に送信される。本実施形態では、端末10がタッチセンサを有する表示装置(タッチパネル)であることにより、表示部11と操作部14とが、同じ場所に配置されてもよい。これにより、オブジェクトを表示しながら、オブジェクトの対象部位を指定することができるため、オブジェクトの姿勢制御が容易となる。 The operation unit 14 includes controllers, buttons, or switches. When the operation unit 14 is moved up, down, left and right, pressed, or rotated, information based on the operation is transmitted to the control unit 12 . In this embodiment, since the terminal 10 is a display device (touch panel) having a touch sensor, the display unit 11 and the operation unit 14 may be arranged at the same place. This makes it possible to specify the target portion of the object while displaying the object, thereby facilitating posture control of the object.

通信部15は、サーバ20と送受信する機能を有する。通信部15には、LAN送受信機(例えばWi-Fi送受信機)が用いられる。なお、送受信機は、LAN送受信機に限定されない。端末が携帯型の端末の場合には、携帯端末用通信(例えばLTE通信)用の送受信機が設けられてもよいし、近距離無線通信用の送受信機が設けられてもよい。端末10は、ネットワーク50を介してサーバ20と接続される。 The communication unit 15 has a function of transmitting/receiving data to/from the server 20 . A LAN transmitter/receiver (for example, a Wi-Fi transmitter/receiver) is used for the communication unit 15 . Note that the transceiver is not limited to a LAN transceiver. When the terminal is a portable terminal, a transmitter/receiver for mobile terminal communication (for example, LTE communication) may be provided, or a transmitter/receiver for short-range wireless communication may be provided. Terminal 10 is connected to server 20 via network 50 .

センサ部16は、端末の位置情報を検出する機能を有する。センサ部16には、GPS(Global Positional System)、加速度センサ、ジャイロセンサ(角速度センサ)を含む。 The sensor unit 16 has a function of detecting position information of the terminal. The sensor unit 16 includes a GPS (Global Positional System), an acceleration sensor, and a gyro sensor (angular velocity sensor).

カメラ部17は、環境画像を撮影する機能を有し、オブジェクトを表示する上でのマーカー部が設けられた物体を撮影する。カメラ部17には、例えばCMOSイメージセンサが用いられる。 The camera section 17 has a function of capturing an environment image, and captures an object provided with a marker section for displaying the object. A CMOS image sensor, for example, is used for the camera unit 17 .

マイク部18は、ユーザから発せされた口頭の情報を取り込み、制御部12または記憶部13に入力する機能を有する。 The microphone unit 18 has a function of taking in verbal information uttered by the user and inputting it to the control unit 12 or the storage unit 13 .

サーバ20は、通信部21、記憶部22、制御部23および表示部24を有する。サーバ20は、データベースおよびアプリケーションサーバとして機能する。なお、あらかじめ端末10にオブジェクト姿勢制御用プログラムに関連するすべての情報が搭載されている場合にはサーバ20を必ずしも用いなくてもよい。 The server 20 has a communication section 21 , a storage section 22 , a control section 23 and a display section 24 . Server 20 functions as a database and application server. Note that the server 20 does not necessarily have to be used when the terminal 10 is preloaded with all the information related to the object attitude control program.

通信部21は、送受信機を有し、ネットワーク50を介して端末10とオブジェクトの制御情報の情報通信を行う。通信部21には、イントラネット用のLAN送受信機が用いられる。なお、送受信機は、イントラネット用のLAN送受信機に限定されず、端末10と同様に通信可能な装置が用いられる。 The communication unit 21 has a transmitter/receiver and performs information communication of object control information with the terminal 10 via the network 50 . A LAN transmitter/receiver for intranet is used for the communication unit 21 . Note that the transmitter/receiver is not limited to a LAN transmitter/receiver for intranet use, and a device that can communicate like the terminal 10 is used.

記憶部22は、ハードディスク、およびSSDを用いることで、オブジェクト姿勢制御用プログラムで用いられる情報のデータベースとしての機能を有する。 The storage unit 22 has a function as a database of information used in the object attitude control program by using a hard disk and an SSD.

制御部23は、CPU、RAM、ASIC、またはFPGAを用いて、オブジェクト姿勢制御プログラムの処理を制御する。また、制御部23からの命令によって、オブジェクト姿勢制御プログラムを実行するためのユーザインターフェースが表示部24に提供される場合がある。 The control unit 23 uses a CPU, RAM, ASIC, or FPGA to control processing of the object attitude control program. Also, in some cases, a user interface for executing the object attitude control program is provided to the display section 24 by a command from the control section 23 .

(1-2.オブジェクト姿勢制御部100の構成)
図2は、オブジェクト姿勢制御システム1における端末10の各構成要素およびサーバ20の各構成によって構成され、オブジェクト姿勢制御機能を実現させるプログラム(オブジェクト姿勢制御プログラム)を制御するオブジェクト姿勢制御部100の機能ブロック図を示す。この例では、オブジェクト姿勢制御プログラムが端末に設けられている例を説明する。
(1-2. Configuration of Object Posture Control Unit 100)
FIG. 2 shows the function of an object attitude control section 100 which is configured by each component of the terminal 10 and each configuration of the server 20 in the object attitude control system 1 and which controls a program (object attitude control program) for realizing the object attitude control function. A block diagram is shown. In this example, an example in which an object attitude control program is installed in the terminal will be described.

オブジェクト姿勢制御部100は、撮影画像取得部110、マーカー検出部120、空間定義部130、オブジェクト表示部140、第1対象部位設定部150、第2対象部位設定部160、連動部位判定部170、移動情報取得部180、およびオブジェクト座標変更部190を含む。 The object posture control unit 100 includes a captured image acquisition unit 110, a marker detection unit 120, a space definition unit 130, an object display unit 140, a first target part setting unit 150, a second target part setting unit 160, an interlocking part determination unit 170, A movement information acquisition unit 180 and an object coordinate change unit 190 are included.

撮影画像取得部110は、カメラ部17において撮影された実空間の環境画像を取得する機能を有する。 The captured image acquisition unit 110 has a function of acquiring an environment image of the real space captured by the camera unit 17 .

マーカー検出部120は、撮影画像取得部110によって取得された画像からマーカーを検出する機能を有する。この例では、マーカーの情報は、あらかじめ記憶部13に記憶されている。なお、マーカーの情報は、必ずしも記憶部13に記憶されていなくてもよく、撮影された画像からマーカーとなりうる特徴点を抽出してもよい。 The marker detection unit 120 has a function of detecting markers from the image acquired by the captured image acquisition unit 110 . In this example, marker information is stored in the storage unit 13 in advance. Note that the information of the marker does not necessarily have to be stored in the storage unit 13, and a feature point that can be the marker may be extracted from the photographed image.

空間定義部130は、仮想空間と表示部11の座標との位置合わせを行う機能を有する。本実施形態では、空間定義部130は、マーカーベース位置合わせ法を用い、検出されたマーカーを基準に仮想空間と表示部11の座標とを位置合わせする。 The space definition unit 130 has a function of aligning the coordinates of the virtual space and the display unit 11 . In this embodiment, the space defining unit 130 aligns the coordinates of the virtual space and the display unit 11 with the detected markers as a reference using a marker-based alignment method.

オブジェクト表示部140は、仮想空間上に配置された姿勢を制御する対象となるオブジェクトを表示部11に表示する機能を有する。 The object display unit 140 has a function of displaying on the display unit 11 an object whose orientation is to be controlled and which is placed in the virtual space.

第1対象部位設定部150は、複数の連動する部位のうち移動可能な第1対象部位を設定する機能を有する。第2対象部位設定部160は、設定された第1対象部位に基づいて第2対象部位を設定する機能を有する。本実施形態では、第1対象部位設定部150および第2対象部位設定部160を合わせて設定部ということができ、設定部は、オブジェクトの複数の連動する部位を設定する機能部の総称とする。第1対象部位設定部150および第2対象部位設定部160を分けて記載する必要がないときは、設定部として説明する。 The first target part setting unit 150 has a function of setting a movable first target part among a plurality of interlocking parts. The second target part setting section 160 has a function of setting a second target part based on the set first target part. In the present embodiment, the first target part setting unit 150 and the second target part setting unit 160 can be collectively referred to as a setting unit, and the setting unit is a generic term for functional units that set a plurality of interlocking parts of an object. . When it is not necessary to describe the first target part setting part 150 and the second target part setting part 160 separately, they will be described as setting parts.

連動部位判定部170は、設定部において設定された複数の部位が連動するかどうかを判定する機能を有する。連動するかどうかの判定は、あらかじめオブジェクト姿勢制御プログラムに組み込まれた情報を用いてもよいし、ユーザからの入力された信号に基づいて行われてもよい。 The interlocking part determination section 170 has a function of determining whether or not the plurality of parts set in the setting section are interlocked. The determination as to whether or not to interlock may be made using information incorporated in advance in the object attitude control program, or based on a signal input from the user.

移動情報取得部180は、センサ部16から入力された端末10の移動前後の座標にもとづいた移動情報を取得する機能を有する。 The movement information acquisition unit 180 has a function of acquiring movement information based on coordinates before and after movement of the terminal 10 input from the sensor unit 16 .

オブジェクト座標変更部190は、表示部11に移動後のオブジェクトを表示するために、連動する部位のうち一部の対象部位の座標を変更し記録するとともに、その位置情報をオブジェクト表示部140に送信する機能を有する。移動情報取得部180、オブジェクト座標変更部190およびオブジェクト表示部140は、1秒あたり60回にわたってオブジェクトにおける対象部位の移動情報を取得し、対象部位の空間座標および表示画面上の座標を変更することにより、オブジェクトの動き(姿勢の変化)を静止画または動画として表示することができる。 In order to display the object after movement on the display unit 11 , the object coordinate changing unit 190 changes and records the coordinates of a part of the target parts among the interlocking parts, and transmits the position information to the object display unit 140 . It has the function to The movement information acquisition unit 180, the object coordinate change unit 190, and the object display unit 140 acquire the movement information of the target portion of the object 60 times per second, and change the spatial coordinates of the target portion and the coordinates on the display screen. , it is possible to display the movement of the object (change in posture) as a still image or moving image.

(1-3.オブジェクト姿勢制御処理)
次に、オブジェクト姿勢制御部100におけるオブジェクト姿勢制御プログラムによる命令に基づいたオブジェクト姿勢制御処理について説明する。図3は、オブジェクト姿勢制御処理のフロー図である。図3に示すように、オブジェクト姿勢制御処理は、第1オブジェクト姿勢制御処理S100、第2オブジェクト姿勢制御処理S200、および第3オブジェクト姿勢制御処理S300を含む。
(1-3. Object posture control processing)
Next, object attitude control processing based on commands from the object attitude control program in the object attitude control section 100 will be described. FIG. 3 is a flowchart of object attitude control processing. As shown in FIG. 3, the object attitude control processing includes first object attitude control processing S100, second object attitude control processing S200, and third object attitude control processing S300.

第1オブジェクト姿勢制御処理S100は、撮影画像の取得・表示処理、マーカー情報検出処理、空間定義処理、および撮影画像・オブジェクト重畳表示処理を含む。第2オブジェクト姿勢制御処理S200は、移動モード判定処理、第1対象部位情報入力処理、第1対象部位設定処理、第2対象部位情報入力処理、第2対象部位設定処理、および連動する部位かどうかの判定処理を含む。第3オブジェクト姿勢制御処理S300は、端末移動量取得処理、オブジェクトの座標変更処理、移動後のオブジェクトの表示処理、および端末の移動が終了したかどうかの判定処理を含む。それぞれのオブジェクト姿勢制御処理を分けて説明する。 The first object attitude control processing S100 includes a photographed image acquisition/display processing, a marker information detection processing, a space definition processing, and a photographed image/object superimposed display processing. The second object posture control processing S200 includes movement mode determination processing, first target part information input processing, first target part setting processing, second target part information input processing, second target part setting processing, and interlocking part determination processing. Includes judgment processing. The third object attitude control processing S300 includes terminal movement amount acquisition processing, object coordinate change processing, object display processing after movement, and determination processing as to whether movement of the terminal has ended. Each object attitude control process will be described separately.

(1-3-1.第1オブジェクト姿勢制御処理S100)
図4に、第1オブジェクト姿勢制御処理S100を示す。第1オブジェクト姿勢処理S100は、オブジェクト姿勢制御プログラムを含むアプリケーションを起動させることをきっかけとして、開始される。
(1-3-1. First Object Posture Control Processing S100)
FIG. 4 shows the first object posture control processing S100. The first object attitude processing S100 is started when an application including an object attitude control program is activated.

第1オブジェクト姿勢処理S100において、撮影画像取得部110は実空間の環境画像の撮影を行い、その撮影された画像を取得し(S110)、端末10の表示部11に撮影された画像を表示する。 In the first object posture processing S100, the captured image acquisition unit 110 captures an environment image of the real space, acquires the captured image (S110), and displays the captured image on the display unit 11 of the terminal 10. .

図5は、端末10で実空間を撮影するときの一例である。図5において、実際の空間には、端末10とともに、テーブル60、およびシート70が配置されている。シート70には、4つのマーカー75が含まれている。この例では、端末10により4つのマーカー75を含むように、テーブル60の一部およびシート70が撮影される。 FIG. 5 is an example when the terminal 10 captures an image of the real space. In FIG. 5, a table 60 and a seat 70 are arranged together with the terminal 10 in the actual space. Sheet 70 includes four markers 75 . In this example, a portion of table 60 and sheet 70 are photographed by terminal 10 to include four markers 75 .

図4に戻って説明する。次に、マーカー検出部120は、マーカー検出処理を行う(S120)。この例では、オブジェクト姿勢制御プログラムには、あらかじめ4つのマーカーの情報が登録されている。マーカーの情報は、マーカーの形態および配置に関するものである。4つのマーカーが検出されないとき(S120;No)、撮影画像の取得・表示処理に戻る。 Returning to FIG. 4, description will be made. Next, the marker detection unit 120 performs marker detection processing (S120). In this example, information on four markers is registered in advance in the object attitude control program. Marker information relates to marker morphology and placement. When the four markers are not detected (S120; No), the process returns to the captured image acquisition/display process.

次に、4つのマーカーを検出した場合には(S120;Yes)、空間定義部130は、マーカーベース位置合わせ法を用いて、実空間と仮想空間との座標の位置合わせ(空間定義)を行う(S130)。このとき、空間定義部130は、表示部11に表示された実空間上のマーカー75と、オブジェクト姿勢制御プログラムに記憶された仮想空間上のマーカーとを照合し、仮想空間の座標を実空間の座標として表示部11に表示可能となるように調整を行う。例えば、マーカー75-1の位置座標は、実空間の位置座標が(Xr75-1,Yr75-1,Zr75-1)、表示部11における位置座標が(Xd75-1,Yd75-1)、仮想空間の位置座標が(Xv75-1,Yv75-1,Zv75-1)として定義される。 Next, when four markers are detected (S120; Yes), the space definition unit 130 aligns the coordinates of the real space and the virtual space (space definition) using the marker-based alignment method. (S130). At this time, the space definition unit 130 collates the real space marker 75 displayed on the display unit 11 with the virtual space marker stored in the object attitude control program, and converts the virtual space coordinates to the real space. The coordinates are adjusted so that they can be displayed on the display unit 11 . For example, the position coordinates of the marker 75-1 are such that the position coordinates in the real space are (X r75-1 , Yr 75-1 , Z r75-1 ), and the position coordinates in the display unit 11 are (X d75-1 , Y d75- 1 ), the position coordinates in the virtual space are defined as (X v75-1 , Y v75-1 , Z v75-1 ).

次に、空間定義部130は、仮想空間におけるオブジェクト座標の取得処理を行う(S140)。図6は、オブジェクトの各部位の仮想空間上の座標である。図6に示すように、オブジェクトの各部位の座標情報は、4つのマーカーの座標に基づいて設定された原点に対して設定される。上記処理により、マーカー75の表示部11における情報が取得されることにより、オブジェクトの各部位の座標が取得される。 Next, the space definition unit 130 performs a process of acquiring object coordinates in the virtual space (S140). FIG. 6 shows the coordinates of each part of the object in the virtual space. As shown in FIG. 6, the coordinate information of each part of the object is set with respect to the origin set based on the coordinates of the four markers. By acquiring the information on the display section 11 of the marker 75 through the above processing, the coordinates of each part of the object are acquired.

次に、オブジェクト表示部140は、撮影された画像にオブジェクトの画像を重畳して表示する(S150)。図7は、端末10の表示部11に表示されたオブジェクトのユーザインターフェースである。図7において、オブジェクト80は、シート70上に配置されて表示されている。この例では、オブジェクト80は、人型の体形を有し、複数の部位81および複数のボーン82を有する。部位81は、移動可能な部位であり、人間の関節に相当する。部位81(部位81a)は、隣接する部位81(部位81b)と、ボーン82を介して接続されている。つまり、部位81aおよび部位81bは連動する部位であるということができる。なお、オブジェクト80を表示する際に、シート70は表示されなくてもよい。以上により、第1オブジェクト姿勢制御処理S100は終了となる。 Next, the object display unit 140 superimposes the image of the object on the captured image and displays it (S150). FIG. 7 shows a user interface of objects displayed on the display unit 11 of the terminal 10. As shown in FIG. In FIG. 7, an object 80 is arranged and displayed on the sheet 70 . In this example, an object 80 has a humanoid body shape and has multiple parts 81 and multiple bones 82 . The part 81 is a movable part and corresponds to a human joint. The part 81 (part 81 a ) is connected to the adjacent part 81 (part 81 b ) via the bone 82 . That is, it can be said that the part 81a and the part 81b are interlocking parts. Note that the sheet 70 does not have to be displayed when the object 80 is displayed. With the above, the first object attitude control processing S100 ends.

(1-3-2.第2オブジェクト姿勢制御処理S200)
図8に、第2オブジェクト姿勢制御処理S200のフロー図を示す。第2オブジェクト姿勢制御処理S200は、第1オブジェクト姿勢制御処理S100の終了をきっかけとして行われる。
(1-3-2. Second Object Posture Control Processing S200)
FIG. 8 shows a flowchart of the second object attitude control processing S200. The second object attitude control process S200 is triggered by the end of the first object attitude control process S100.

まず、移動モードであるかどうかの判定がなされる(S210)。移動モードであるかどうかは、センサ部16が端末10の動きを検知するかどうかで判定してもよいし、ユーザからの入力に基づいて判定してもよい。移動モードである場合には(S210;Yes)、第2オブジェクト姿勢制御処理は、終了となる。 First, it is determined whether or not the mobile mode is set (S210). Whether the mobile mode is set may be determined based on whether the sensor unit 16 detects movement of the terminal 10 or based on an input from the user. If it is the move mode (S210; Yes), the second object attitude control process ends.

移動モードでない場合(S210;No)、連動する部位の一部の対象部位として、第1対象部位の情報が第1対象部位設定部150に入力される(S220)。図9は、第1対象部位の情報を入力するときの一例を示すユーザインターフェースである。図9に示すように、第1対象部位の情報を入力する際に、表示画面上に「第1対象部位をタッチしてください。」と表示してもよい。この例では、第1対象部位の情報を入力する際に、ユーザが表示部11に表示されたオブジェクトうち、部位81aに相当する部分がタッチ操作される。部位81aは、オブジェクト80の手首の関節に相当する。上述した通り、端末10はタッチパネルを有しており、部位81aがタッチ操作されることにより、部位81aの位置情報が第1対象部位設定部150に入力される。 If the movement mode is not set (S210; No), the information of the first target part is input to the first target part setting unit 150 as a partial target part of the interlocked parts (S220). FIG. 9 is a user interface showing an example of inputting information on the first target region. As shown in FIG. 9, when inputting the information of the first target site, a message "Please touch the first target site" may be displayed on the display screen. In this example, when inputting the information of the first target part, the user touches the part of the object displayed on the display unit 11 corresponding to the part 81a. The part 81 a corresponds to the wrist joint of the object 80 . As described above, the terminal 10 has a touch panel, and the position information of the part 81a is input to the first target part setting unit 150 by performing a touch operation on the part 81a.

なお、部位81aの情報を入力する際に、部位81aに相当する部分を囲むようになぞってもよいし、部位81aに相当する部分を複数の指で囲むようにしてもよい。 When inputting the information of the portion 81a, the portion corresponding to the portion 81a may be traced, or the portion corresponding to the portion 81a may be surrounded with a plurality of fingers.

図8に戻って説明する。次に、入力された情報に基づいて、第1対象部位設定部150は、タッチ操作された部位81aを第1対象部位として設定する(S230)。 Returning to FIG. 8, description will be made. Next, based on the input information, the first target part setting unit 150 sets the touch-operated part 81a as the first target part (S230).

次に、第2対象部位の情報が第2対象部位設定部160に入力される(S220)。図10は、第2対象部位の情報を入力するときの一例を示すユーザインターフェースである。図10に示すように、第2対象部位の情報を入力する際に、第1対象部位の場合と同様に、「第2対象部位をタッチしてください。」と表示され、ユーザが表示部11に表示されたオブジェクトうち、第2対象部位となる部位81bに相当する部分がタッチ操作される。部位81bは、オブジェクト80の肘の関節に相当する。このとき、部位81aと同様に、部位81bがタッチ操作されることにより、部位81bの位置情報が第2対象部位設定部160に入力される。 Next, information on the second target part is input to the second target part setting unit 160 (S220). FIG. 10 is a user interface showing an example of inputting information on the second target region. As shown in FIG. 10, when inputting the information of the second target part, as in the case of the first target part, the message "Please touch the second target part." , the part corresponding to the part 81b, which is the second target part, is touch-operated. The part 81 b corresponds to the elbow joint of the object 80 . At this time, position information of the portion 81b is input to the second target portion setting section 160 by performing a touch operation on the portion 81b, similarly to the portion 81a.

図8に戻って説明する。次に、入力された情報をもとに、第2対象部位設定部160は、タッチ操作された部位81bを第2対象部位として設定する(S250)。 Returning to FIG. 8, description will be made. Next, based on the input information, the second target part setting unit 160 sets the touch-operated part 81b as the second target part (S250).

次に、連動部位判定部170は、部位81aと、部位81bとが連動して移動するかを判定する。部位81aと、部位81bとが、連動する部位ではないと判定されると(S260;No)、第1対象部位の情報を再度入力する(S220)。この例では、部位81aと、部位81bとが、ボーン82aを介して接続されていることから、連動する部位であると判定される(S260;Yes)。以上により、第2オブジェクト姿勢制御処理S200は終了となる。 Next, the interlocking part determination unit 170 determines whether the part 81a and the part 81b move in conjunction with each other. If it is determined that the part 81a and the part 81b are not linked parts (S260; No), the information of the first target part is input again (S220). In this example, since the part 81a and the part 81b are connected via the bone 82a, it is determined that they are interlocking parts (S260; Yes). With the above, the second object attitude control processing S200 ends.

(1-3-3.第3オブジェクト姿勢制御処理S300)
図11は、第3オブジェクト姿勢制御処理S300のフロー図である。第3オブジェクト姿勢制御処理S300は、第2オブジェクト姿勢制御処理S200の終了をきっかけに開始される。
(1-3-3. Third Object Posture Control Processing S300)
FIG. 11 is a flowchart of the third object attitude control processing S300. The third object attitude control process S300 is started when the second object attitude control process S200 ends.

第3オブジェクト姿勢制御処理S300において、はじめに、移動情報取得部180は、端末10の移動量(動きに関する情報ともいう)を取得する(S310)。この例では、端末10の位置情報の変化に伴うオブジェクトの姿勢の追跡は、V-SLAM(Visual Simultaneous Localization and Mapping)法により行われる。図12は、端末10ユーザ90の動きに合わせて移動したときの一例である。端末10を移動するときに、ユーザは端末10の表示部11に接触していなくてもよい。センサ部16を用いて計測され、移動情報取得部180において取得される。センサ部16には、GPS、加速度センサ、または角速度センサが用いられる。図13(A)は、初期値(移動前)、時間t1後(移動後)の端末10の位置座標、および移動前後の座標より求められる端末10の移動量を示すデータ構造である。 In the third object attitude control process S300, first, the movement information acquisition unit 180 acquires the movement amount (also referred to as movement information) of the terminal 10 (S310). In this example, the tracking of the posture of the object accompanying changes in the position information of the terminal 10 is performed by the V-SLAM (Visual Simultaneous Localization and Mapping) method. FIG. 12 shows an example when the terminal 10 moves in accordance with the motion of the user 90 . The user does not have to touch the display unit 11 of the terminal 10 when moving the terminal 10 . It is measured using the sensor unit 16 and acquired by the movement information acquisition unit 180 . A GPS, an acceleration sensor, or an angular velocity sensor is used for the sensor unit 16 . FIG. 13A is a data structure showing the movement amount of terminal 10 obtained from the initial value (before movement), the position coordinates of terminal 10 after time t1 (after movement), and the coordinates before and after movement.

次に、取得された移動量をもとに、オブジェクト座標変更部190は、オブジェクト80のうち移動対象部位である第1対象部位(部位81a)の座標を変更し、記録する(S320)。図13(B)は、時間t1後のオブジェクトの第1対象部位(部位81a)の仮想空間上の座標および表示部11における座標のデータ構造である。図13(B)に示すように、端末10の移動情報に基づいて仮想空間におけるオブジェクト80の第1対象部位(部位81a)の情報、および表示部11におけるオブジェクト80の第1対象部位(部位81a)の座標の情報が変更され、変更後の座標の情報が記憶される(座標情報の書き換えがなされる)。 Next, based on the acquired amount of movement, the object coordinate changing unit 190 changes and records the coordinates of the first target part (part 81a), which is the movement target part of the object 80 (S320). FIG. 13B shows the data structure of the coordinates on the virtual space and the coordinates on the display unit 11 of the first target part (part 81a) of the object after time t1. As shown in FIG. 13(B), based on the movement information of the terminal 10, the information of the first target part (part 81a) of the object 80 in the virtual space and the first target part (part 81a) of the object 80 in the display unit 11 are displayed. ) is changed, and the changed coordinate information is stored (the coordinate information is rewritten).

図11に戻って説明する。次に、オブジェクト表示部140は、移動後(時間t1後)の第1対象部位の情報を用いて表示部11にオブジェクト80を表示する(S330)。図14は、表示部11に第1対象部位の位置が変化したオブジェクト80を表示したユーザインターフェースである。図14に示すように、第1対象部位(部位81a)は、図7で表示された位置から第2対象部位(部位81b)を基準として移動する。つまり、情報処理装置の動きに関する情報に基づいて、複数の連動する部位のうち一部の対象部位を移動することができる。上記処理は、端末10が移動する限り(S340;Yes)繰り返し行われる。この例では、端末の移動量の取得は、1秒あたり60回行われるため、オブジェクトの姿勢の変化が滑らかに表示される。端末10の移動が終了したとき(S340;No)、第3オブジェクト姿勢制御処理S300は、終了となる。 Returning to FIG. 11, description will be made. Next, the object display unit 140 displays the object 80 on the display unit 11 using the information of the first target region after movement (after time t1) (S330). FIG. 14 shows a user interface displaying an object 80 in which the position of the first target part is changed on the display unit 11 . As shown in FIG. 14, the first target part (part 81a) moves from the position displayed in FIG. 7 with the second target part (part 81b) as a reference. That is, based on the information about the movement of the information processing device, it is possible to move some target parts among the plurality of interlocking parts. The above process is repeated as long as the terminal 10 moves (S340; Yes). In this example, the amount of movement of the terminal is obtained 60 times per second, so the change in the posture of the object is displayed smoothly. When the movement of the terminal 10 ends (S340; No), the third object attitude control process S300 ends.

上記に示した通り、本実施形態のオブジェクト姿勢制御プログラムを用いることにより、連動する部位の設定および端末の移動を用いて、複雑な制御を行うことなく容易にオブジェクトの姿勢制御を行うことができる。 As described above, by using the object attitude control program of the present embodiment, it is possible to easily control the attitude of the object by setting linked parts and moving the terminal without performing complicated control. .

<第2実施形態>
本実施形態では、第1実施形態と異なるオブジェクト姿勢制御部およびオブジェクト姿勢制御方法について説明する。具体的には第1対象部位を移動させる際の支点が異なる例について説明する。なお、第1実施形態と同様の構成および方法については、適宜省略する場合がある。
<Second embodiment>
In this embodiment, an object attitude control section and an object attitude control method that are different from those in the first embodiment will be described. Specifically, an example in which the fulcrum for moving the first target portion is different will be described. Note that the same configuration and method as those of the first embodiment may be omitted as appropriate.

図15は、第2対象部位の情報を入力するときの一例を示すユーザインターフェースである。図15に示すように、部位81cに相当する部分をタッチ操作し、第2対象部位の情報を入力し、第2対象部位として設定してもよい。この場合、部位81aと、部位81cとは、離隔しているが、ボーン82a、部位81b、およびボーン82bを合わせて一つのボーンとみなすようにあらかじめプログラムに設定することにより、連動する部位として判定することができる。 FIG. 15 is a user interface showing an example of inputting information on the second target region. As shown in FIG. 15, a portion corresponding to the portion 81c may be touch-operated to input information of the second target portion and set as the second target portion. In this case, the part 81a and the part 81c are separated from each other, but by setting the program in advance so that the bones 82a, 81b, and 82b are collectively regarded as one bone, they are determined as interlocking parts. can do.

これにより、本実施形態を用いることにより、端末10を移動させたときに、図16に示すように、部位81cを基準として部位81aを移動させることにより、オブジェクトの姿勢制御を行うことができる。 Thus, by using the present embodiment, when the terminal 10 is moved, as shown in FIG. 16, the position of the object can be controlled by moving the part 81a with reference to the part 81c.

なお、ボーン82a、部位81b、およびボーン82bを合わせて一つのボーンと固定されたものとしてみなさない場合には、部位81aの動きに連動して部位81bを移動させてもよい。この場合、部位81bは、制御されない状態となるため、部位81aが動きに合わせて同時に移動してもよいし、遅れて移動してもよい。 If the bone 82a, the part 81b, and the bone 82b are not regarded as one fixed bone, the part 81b may be moved in conjunction with the movement of the part 81a. In this case, since the portion 81b is in an uncontrolled state, it may move simultaneously with the movement of the portion 81a or may move with a delay.

<第3実施形態>
本実施形態では、第1実施形態と異なるオブジェクト姿勢制御部およびオブジェクト姿勢制御方法について説明する。具体的には、第3オブジェクト姿勢制御処理S300を行う上で、第1対象部位の移動領域が限界点に到達したときに、第3対象部位を設定する処理について説明する。なお、第1実施形態および第2実施形態と同様の構成および方法については、適宜省略する場合がある。
<Third Embodiment>
In this embodiment, an object attitude control section and an object attitude control method that are different from those in the first embodiment will be described. Specifically, processing for setting the third target part when the movement area of the first target part reaches the limit point in performing the third object posture control processing S300 will be described. Note that the same configurations and methods as those of the first and second embodiments may be omitted as appropriate.

(3-1.オブジェクト姿勢制御部100Aの構成)
図17は、オブジェクト姿勢制御システム1Aにおける、オブジェクト姿勢制御部100Aの機能ブロック図を示す。図17に示すように、オブジェクト姿勢制御部100Aは、撮影画像取得部110、マーカー検出部120、空間定義部130、オブジェクト表示部140、第1対象部位設定部150、第2対象部位設定部160、連動部位判定部170、移動情報取得部180、およびオブジェクト座標変更部190に加えて、限界点検出部195、第3対象部位設定部200を含む。
(3-1. Configuration of Object Posture Control Unit 100A)
FIG. 17 shows a functional block diagram of the object attitude control section 100A in the object attitude control system 1A. As shown in FIG. 17, the object posture control unit 100A includes a captured image acquisition unit 110, a marker detection unit 120, a space definition unit 130, an object display unit 140, a first target part setting unit 150, a second target part setting unit 160. , an interlocking part determination unit 170 , a movement information acquisition unit 180 , and an object coordinate change unit 190 , as well as a limit point detection unit 195 and a third target part setting unit 200 .

限界点検出部195は、第1対象部位の移動を検知し、第1対象部位が可動領域の限界点に到達したときに第3対象部位設定部200に情報を入力する機能を有する。第3対象部位設定部200は、限界点検出部195から入力された信号に基づいて、第3対象部位を設定する機能を有する。第3対象部位が設定されると、第2対象部位は支点から移動部位に切り替わるとともに、第3対象部位を基準として第2対象部位が移動する。 The limit point detection unit 195 has a function of detecting movement of the first target part and inputting information to the third target part setting unit 200 when the first target part reaches the limit point of the movable region. The third target part setting section 200 has a function of setting the third target part based on the signal input from the limit point detection section 195 . When the third target part is set, the second target part switches from the fulcrum to the moving part, and the second target part moves on the basis of the third target part.

(3-2.オブジェクト姿勢制御処理)
図18に、オブジェクト姿勢制御部100Aにおけるオブジェクト姿勢制御プログラムによる命令に基づいた第2オブジェクト姿勢制御処理のフロー図(S300A)を示す。図18に示すように、端末10Aを移動させ、端末10Aの移動量を取得し(S310)、第1対象部位(部位81a)の仮想空間の座標および表示部11における座標を変更する(S320)。
(3-2. Object posture control processing)
FIG. 18 shows a flowchart (S300A) of the second object attitude control process based on the command of the object attitude control program in the object attitude control section 100A. As shown in FIG. 18, the terminal 10A is moved, the amount of movement of the terminal 10A is acquired (S310), and the coordinates in the virtual space of the first target part (part 81a) and the coordinates in the display unit 11 are changed (S320). .

図19は、各部位の可動領域を示すデータ構造である。図19に示すように、第1対象部位の可動領域として、第2対象部位に対する相対的な位置座標が設定される。このとき、限界点検出部195は、第1対象部位(この例では、部位81a)の可動領域の限界点を超えるものではないと判定したとき(S325;No)、第1実施形態と同様にオブジェクトの表示を行う(S330)。一方、図20に示すように、第1対象部位の可動領域の限界点を超えるものであると判定した場合(S325;Yes)、限界点検出部195は、第3対象部位設定部200にその情報を入力する。第3対象部位設定部200は、入力された情報に基づき、第2対象部位に連結し、第2対象部位に対して第1対象部位の反対側に設けられた部位を第3対象部位として設定する(S350)。この例では、第2対象部位に相当する部位81b(肘関節に相当)に対して、第1対象部位に相当する部位81a(手首関節に相当)の反対側に設けられた部位81c(肩関節に相当)が第3対象部位として設定される。部位81cは、部位81bと、ボーン82bを介して連結されている。本実施形態では、部位81cは自動的に設定される。なお、自動的に設定されない場合には、第1対象部位と同様に、ユーザの操作によって、第3対象部位の情報を入力後、第3対象部位を設定してもよい。この場合、連動する部位であるかを判定してもよい。 FIG. 19 is a data structure showing the movable area of each part. As shown in FIG. 19, relative position coordinates with respect to the second target part are set as the movable region of the first target part. At this time, when it is determined that the limit point detection unit 195 does not exceed the limit point of the movable region of the first target part (the part 81a in this example) (S325; No), as in the first embodiment, Objects are displayed (S330). On the other hand, as shown in FIG. 20, when it is determined that the limit point of the movable region of the first target part is exceeded (S325; Yes), the limit point detection unit 195 instructs the third target part setting unit 200 to Enter your information. Based on the input information, the third target part setting unit 200 sets the part connected to the second target part and provided on the opposite side of the first target part to the second target part as the third target part. (S350). In this example, a portion 81c (shoulder joint) provided on the opposite side of the portion 81a (corresponding to the wrist joint) corresponding to the first target portion with respect to the portion 81b (corresponding to the elbow joint) corresponding to the second target portion. ) is set as the third target part. The portion 81c is connected to the portion 81b via a bone 82b. In this embodiment, the portion 81c is automatically set. If it is not automatically set, the third target part may be set after the information of the third target part is input by the user's operation in the same way as the first target part. In this case, it may be determined whether it is an interlocking part.

次に、第3対象部位設定後、端末10の移動量を取得し(S360)、第2対象部位(部位81b)の座標を変更し(S370)、第2対象部位の変更された座標に基づいて、図21に示すように第3対象部位(部位81c)を基準にして第2対象部位(部位81b)が移動したオブジェクトが表示される(S380)。以上より、本実施形態を用いることにより、移動部位が可動領域の限界に到達したときもオブジェクトの姿勢を容易に制御することができる。 Next, after setting the third target part, the movement amount of the terminal 10 is acquired (S360), the coordinates of the second target part (part 81b) are changed (S370), and based on the changed coordinates of the second target part Then, as shown in FIG. 21, an object is displayed in which the second target part (part 81b) has moved with reference to the third target part (part 81c) (S380). As described above, by using this embodiment, it is possible to easily control the posture of the object even when the moving part reaches the limit of the movable area.

なお、上記と同様の処理は、固定部位を基準として移動する移動部位が可動領域の限界点を検出した場合、繰り返し行われてもよい。つまり、固定点となる第n(nは2以上の自然数)対象部位を基準として第(n-1)対象部位が移動したときに、第(n-1)対象部位が可動領域の限界点に到達したとき、第n対象部位に連結し、第(n-1)対象部位の反対側に設けられた第(n+1)対象部位を設定してもよい。これにより、オブジェクトの姿勢をより滑らかに制御することができる。 It should be noted that the same processing as described above may be repeated when the movable part that moves relative to the fixed part detects the limit point of the movable region. In other words, when the (n-1)th target part moves based on the n-th (n is a natural number of 2 or more) target part that serves as a fixed point, the (n-1)th target part reaches the limit point of the movable region. When reached, the (n+1)th target site connected to the nth target site and provided on the opposite side of the (n−1)th target site may be set. This makes it possible to control the posture of the object more smoothly.

<第4実施形態>
本実施形態では、第1実施形態と異なるオブジェクトの姿勢制御処理について説明する。具体的には、複数の部位が一つの端末の移動に基づいて移動する例について説明する。なお、第1~第3実施形態と同様の構成および方法については、適宜省略する場合がある。
<Fourth Embodiment>
In the present embodiment, posture control processing for an object that is different from that in the first embodiment will be described. Specifically, an example in which a plurality of parts move based on the movement of one terminal will be described. Note that the same configurations and methods as those of the first to third embodiments may be omitted as appropriate.

(4-1.サーバおよびオブジェクト姿勢制御部100Bの構成)
図22は、オブジェクト姿勢制御システム1Bにおける、オブジェクト姿勢制御部100Bの機能ブロック図を示す。図22に示すように、オブジェクト姿勢制御部100Bは、撮影画像取得部110、マーカー検出部120、空間定義部130、オブジェクト表示部140、第1対象部位設定部150、第2対象部位設定部160、連動部位判定部170、移動情報取得部180、およびオブジェクト座標変更部190に加えて、連動部位追加部210、第4対象部位設定部220および第5対象部位設定部230を含む。
(4-1. Configuration of Server and Object Attitude Control Unit 100B)
FIG. 22 shows a functional block diagram of the object attitude control section 100B in the object attitude control system 1B. As shown in FIG. 22, the object posture control unit 100B includes a captured image acquisition unit 110, a marker detection unit 120, a space definition unit 130, an object display unit 140, a first target part setting unit 150, a second target part setting unit 160. , an interlocking part determining unit 170 , a movement information acquiring unit 180 , and an object coordinate changing unit 190 , as well as an interlocking part adding unit 210 , a fourth target part setting unit 220 and a fifth target part setting unit 230 .

連動部位追加部210は、第1対象部位および第2対象部位を含む連動する部位(第1連動部位という場合ある)とは異なる連動する部位(第2連動部位という場合がある)を追加で設定する機能を有する。第4対象部位設定部220は、第4対象部位を設定する機能を有する。第4対象部位は、第2連動部位のうち移動する部位に相当する。第5対象部位設定部230は、第5対象部位を設定する機能を有する。第5対象部位は、第2連動部位のうち第4対象部位の動きの支点となる部位に相当する。 The interlocking part adding unit 210 additionally sets an interlocking part (sometimes referred to as a second interlocking part) different from the interlocking parts including the first target part and the second target part (sometimes referred to as a first interlocking part). It has the function to The fourth target part setting section 220 has a function of setting a fourth target part. The fourth target part corresponds to the moving part of the second interlocking parts. The fifth target part setting section 230 has a function of setting a fifth target part. The fifth target part corresponds to a part serving as a fulcrum of movement of the fourth target part among the second interlocking parts.

(4-2.オブジェクト姿勢制御処理)
図23に、オブジェクト姿勢制御部100Bにおけるオブジェクト姿勢制御プログラムによる命令に基づいた第2オブジェクト姿勢制御処理S200Bのフロー図を示す。図23に示すように、第1対象部位および第2対象部位を設定し、連動する部位であると判定された後(S250;Yes)、連動部位追加部210は連動する部位を追加するかどうかを判定する(S255)。上記判定は、ユーザからの入力に基づいてなされてもよい。このとき、表示部11に「連動する部位を追加しますか?」と表示されるとともに、「はい」および「いいえ」のボタンが表示されてもよい。ユーザが「はい」のボタンを押下したとき、連動する部位を追加するための信号が入力され、連動する部位を追加するモードに切り替わる(S255;Yes)。
(4-2. Object posture control processing)
FIG. 23 shows a flowchart of the second object attitude control processing S200B based on the command of the object attitude control program in the object attitude control section 100B. As shown in FIG. 23, after setting the first target part and the second target part and determining that they are interlocking parts (S250; Yes), the interlocking part adding unit 210 determines whether to add the interlocking part. is determined (S255). The determination may be made based on input from the user. At this time, the display unit 11 may display "Do you want to add an interlocking part?" and "Yes" and "No" buttons. When the user presses the "Yes" button, a signal for adding an interlocking part is input, and the mode is switched to the mode for adding an interlocking part (S255; Yes).

次に、図24に示すように、部位81dがタッチ操作されることにより、部位81dの位置情報が第4対象部位設定部220に入力される(S260)。入力された情報に基づいて、第4対象部位設定部220は、タッチ操作された部位81dを第4対象部位として設定する(S265)。 Next, as shown in FIG. 24, position information of the part 81d is input to the fourth target part setting unit 220 by performing a touch operation on the part 81d (S260). Based on the input information, the fourth target part setting unit 220 sets the touch-operated part 81d as the fourth target part (S265).

次に、図24に示す部位81eがタッチ操作されることにより、部位81eの位置情報が第5対象部位設定部230に入力される(S270)。入力された情報に基づいて、第5対象部位設定部230は、タッチ操作された部位81eを第5対象部位として設定する(S275)。 Next, positional information of the portion 81e is input to the fifth target portion setting section 230 by performing a touch operation on the portion 81e shown in FIG. 24 (S270). Based on the input information, the fifth target site setting unit 230 sets the touch-operated site 81e as the fifth target site (S275).

次に、連動部位判定部170は、第1対象部位および第2対象部位と同様に、第4対象部位および第5対象部位とが連動する部位であるかを判定する(S280)。設定された第4対象部位と第5対象部位とが、連動する部位であると判定された場合(S280;Yes)、第2オブジェクト姿勢制御処理S200Bが終了となる。 Next, the interlocking part determining section 170 determines whether the fourth target part and the fifth target part are interlocking parts in the same manner as the first target part and the second target part (S280). If it is determined that the set fourth target part and fifth target part are interlocked parts (S280; Yes), the second object posture control processing S200B ends.

図25は、第3オブジェクト制御処理S300Bのフロー図である。端末10Bの移動に伴うオブジェクトの移動は第1実施形態と同様の方法で実現されるが、本実施形態の場合、図26に示すように、端末10Bを寝かせた状態から立たせた状態に位置を変更したときに、この移動量に基づいて、第1対象部位、第4対象部位の座標変更が変更され(S322)、図27に示すように第2対象部位(部位81b)を基準にして第1対象部位(部位81a)が移動するのと同時に、第5対象部位(部位81e)を基準にして第4対象部位(部位81d)が移動したオブジェクトが表示される(S330)。つまり、一つの端末が移動したときに、複数の連動部位を動かし、オブジェクトの姿勢を制御することができる。 FIG. 25 is a flowchart of the third object control processing S300B. The movement of the object accompanying the movement of the terminal 10B is realized by the same method as in the first embodiment, but in the case of this embodiment, as shown in FIG. When changed, the coordinate change of the first target part and the fourth target part is changed based on this movement amount (S322), and as shown in FIG. Simultaneously with the movement of the first target part (part 81a), an object is displayed in which the fourth target part (part 81d) has moved with reference to the fifth target part (part 81e) (S330). In other words, when one terminal moves, it is possible to move a plurality of interlocking parts and control the attitude of the object.

<第5実施形態>
本実施形態では、第1実施形態と異なるオブジェクトの姿勢制御処理について説明する。具体的には、複数の部位が重畳して表示されている場合に対象部位を設定する例について説明する。なお、第1~第4実施形態と同様の構成および方法については、適宜省略する場合がある。
<Fifth Embodiment>
In the present embodiment, posture control processing for an object that is different from that in the first embodiment will be described. Specifically, an example of setting a target part when a plurality of parts are superimposed and displayed will be described. Note that the same configurations and methods as those of the first to fourth embodiments may be omitted as appropriate.

図28は、複数の部位が重畳して表示されている場合を示すユーザインターフェースである。図28に示すように、ユーザの部位81a(手首の関節に相当)は、部位81g(腰の関節に相当)と重畳して表示されている。このとき、重畳する部分がタッチ操作されることにより指定されたときに、表示部11におけるオブジェクト80の表示方向を変更してもよい。例えば、重畳する部分がタッチ操作されたとき、図29に示すように、「オブジェクトの表示方向を変更しますか?」と表示部11に表示し、「はい」および「いいえ」のボタンを表示してもよい。「はい」ボタンが押下されたとき、図30に示すように、オブジェクト80をシート70に対して時計回りに90度回転して表示してもよい。これにより、重複していた部位81aおよび部位81gが別々に表示され、特定の部位を設定することができる。 FIG. 28 is a user interface showing a case where a plurality of parts are superimposed and displayed. As shown in FIG. 28, the user's part 81a (corresponding to the wrist joint) is displayed superimposed on the part 81g (corresponding to the waist joint). At this time, the display direction of the object 80 on the display unit 11 may be changed when the overlapping portion is specified by performing a touch operation. For example, when the superimposed portion is touch-operated, as shown in FIG. 29, the message "Are you sure you want to change the display direction of the object?" You may When the "Yes" button is pressed, the object 80 may be rotated 90 degrees clockwise with respect to the sheet 70 and displayed as shown in FIG. As a result, overlapping parts 81a and 81g are displayed separately, and specific parts can be set.

なお、重畳する部分における特定の部位を設定する方法は、上記方法に限定されない。例えば、所定の条件を満たす部位を特定したい部位(第1対象部位または第2対象部位)として設定してもよい。具体的には、重畳する部分に対してタッチ操作を行うなどして指定した場合、最前面に表示された部位を特定したい部位として設定してもよい。 It should be noted that the method of setting the specific portion in the overlapping portion is not limited to the above method. For example, a site that satisfies a predetermined condition may be set as a site to be specified (first target site or second target site). Specifically, when a portion to be superimposed is specified by performing a touch operation or the like, the portion displayed in the foreground may be set as the portion to be specified.

また、別の方法として、重畳する部分に対する所定の操作に基づいて特定したい部位を設定してもよい。具体的には、重畳する部分に対して短い時間(例えば1sec)でタッチ操作する場合には、前面の部位を特定したい部位と設定し、長い時間(例えば5sec)でタッチ操作するときには、後面の部位を特定したい部位として設定してもよい。 As another method, a part to be specified may be set based on a predetermined operation on the overlapping part. Specifically, when the touch operation is performed for a short time (for example, 1 sec) on the superimposed portion, the front portion is set as the portion to be specified, and when the touch operation is performed for a long time (for example, 5 sec), the rear portion is set. A site may be set as a site to be specified.

<第6実施形態>
本実施形態では、第1~第5実施形態と異なるオブジェクトの姿勢制御処理について説明する。具体的には、第1対象部位の移動により、第1対象部位および第2対象部位とは異なる移動可能な部位に接触したときに新たな連結する部位を設定する例について説明する。なお、第1~第5実施形態と同様の構成および方法については、適宜省略する場合がある。
<Sixth Embodiment>
In this embodiment, an object attitude control process different from that in the first to fifth embodiments will be described. Specifically, an example will be described in which a new connecting site is set when a movable site different from the first target site and the second target site is contacted by movement of the first target site. Note that the same configurations and methods as those of the first to fifth embodiments may be omitted as appropriate.

図31は、第1対象部位が異なる部位に接触した例を示すユーザインターフェースである。図31に示すように、ユーザの部位81a(左手首の関節に相当)は、部位81e(右肘の関節に相当)と接触して表示される。このとき、部位81eは、移動可能な部位としてあらかじめ入力されていれば、第4対象部位として設定してもよい。このとき、部位81eと、部位81fとは、ボーン82eを介して連動する部位であるため、部位81fは、第5対象部位として設定されてもよい。 FIG. 31 is a user interface showing an example in which the first target site contacts different sites. As shown in FIG. 31, the user's part 81a (corresponding to the joint of the left wrist) is displayed in contact with the part 81e (corresponding to the joint of the right elbow). At this time, the part 81e may be set as the fourth target part if it is previously input as a movable part. At this time, since the part 81e and the part 81f are parts linked via the bone 82e, the part 81f may be set as the fifth target part.

上記において、第1対象部位である部位81aが第2対象部位である81bを基準として移動するとき、図32に示すように、部位81aの移動に基づき第4対象部位である部位81eが第5対象部位である部位81fを基準として移動してもよい。 In the above, when the part 81a that is the first target part moves with respect to the second target part 81b, as shown in FIG. You may move on the basis of the site|part 81f which is a target site|part.

本実施形態を用いることにより、一の連動する部位の動きにより干渉され、他の連動する部位の姿勢を制御することができる。 By using this embodiment, it is possible to interfere with the movement of one interlocking part and control the attitude of another interlocking part.

なお、上記制御は、一の連動する部位の姿勢に限定されない。例えば、オブジェクト80とは異なる対象物によって他の連動する部位の姿勢が制御されてもよい。つまり、ユーザによる操作ではなく、受動的に連動する部位を設定することができる。 Note that the control described above is not limited to the posture of one interlocking part. For example, the posture of other interlocking parts may be controlled by a target other than the object 80 . In other words, it is possible to set a part that is passively linked instead of being operated by the user.

<第7実施形態>
本実施形態では、第1~第5実施形態と異なるオブジェクトの姿勢制御処理について説明する。具体的には、X座標、Y座標、Z座標に加えて角度θを用いてオブジェクトの姿勢を制御する例について説明する。なお、第1~第6実施形態と同様の構成および方法については、適宜省略する場合がある。
<Seventh embodiment>
In this embodiment, an object attitude control process different from that in the first to fifth embodiments will be described. Specifically, an example of controlling the attitude of the object using the angle θ in addition to the X, Y, and Z coordinates will be described. Note that the same configurations and methods as those of the first to sixth embodiments may be omitted as appropriate.

図33は、端末の移動前後のオブジェクトの第1対象部位(部位81a)の仮想空間上の座標および表示部11における座標のデータ構造である。図33に示すように、端末10の移動情報において、X座標、Y座標、Z座標だけではなく角度θを用いてもよい。この場合、X座標、Y座標、Z座標のいずれかが用いられなくてもよい。端末10の動きに合わせて仮想空間におけるオブジェクト80の第1対象部位(部位81a)の情報、および表示部11におけるオブジェクト80の第1対象部位(部位81a)の座標の情報が変更され、変更後の座標の情報が記憶される(座標情報の書き換えがなされる)。 FIG. 33 shows the data structure of the coordinates in the virtual space and the coordinates in the display unit 11 of the first target part (part 81a) of the object before and after movement of the terminal. As shown in FIG. 33, in the movement information of the terminal 10, not only the X, Y, and Z coordinates but also the angle θ may be used. In this case, any of the X, Y, and Z coordinates may not be used. Information on the first target portion (portion 81a) of the object 80 in the virtual space and information on the coordinates of the first target portion (portion 81a) of the object 80 on the display unit 11 are changed in accordance with the movement of the terminal 10. is stored (the coordinate information is rewritten).

図34は、表示部11に表示された姿勢が変化した後のオブジェクトのユーザインターフェースの一例である。図34に示すように、本実施形態を用いることにより、オブジェクトの姿勢において、特にひねりの姿勢を制御することができる。 FIG. 34 is an example of the user interface of the object displayed on the display unit 11 after the posture has changed. As shown in FIG. 34, by using this embodiment, it is possible to control the posture of the object, especially the twist posture.

なお、本発明の思想の範疇において、当業者であれば、各種の変更例および修正例に想到し得るものであり、それら変更例および修正例についても本発明の範囲に属するものと了解される。例えば、前述の各実施形態に対して、当業者が適宜、構成要素の追加、削除若しくは設計変更を行ったもの、又は、工程の追加、省略若しくは条件変更を行ったものも、本発明の要旨を備えている限り、本発明の範囲に含まれる。 It should be noted that within the scope of the idea of the present invention, those skilled in the art can conceive of various modifications and modifications, and it is understood that these modifications and modifications also belong to the scope of the present invention. . For example, additions, deletions, or design changes of components, or additions, omissions, or changes in conditions of the above-described embodiments by those skilled in the art are also subject to the gist of the present invention. is included in the scope of the present invention as long as it has

(変形例)
本発明の第1実施形態では、タッチ操作により第1対象部位の情報を入力し、第1対象部位が設定されるとともに、タッチ操作により第2対象部位の情報を入力し、第2対象部位が設定される例を示したが、これに限定されない。例えば、第2対象部位は、第1対象部位が設定される場合に、自動的に設定されてもよい。このとき、第2対象部位は、第1対象部位の上位となる部位が自動で設定されてもよい。
(Modification)
In the first embodiment of the present invention, information on a first target portion is input by a touch operation to set the first target portion, information on a second target portion is input by a touch operation, and the second target portion is set. Although an example of setting is shown, it is not limited to this. For example, the second target part may be automatically set when the first target part is set. At this time, the second target part may automatically be set to a part higher than the first target part.

本発明の第1実施形態では、ユーザがタッチ操作することにより、第1対象部位および第2対象部位の情報が入力される例を示したが、これに限定さない。例えば、端末10のマイク部18を用いて、対象部位の情報を口頭で入力してもよい。 In the first embodiment of the present invention, an example in which information on the first target region and the second target region is input by the user's touch operation has been described, but the present invention is not limited to this. For example, the microphone unit 18 of the terminal 10 may be used to verbally input information on the target region.

また、本発明の第1実施形態では、端末10を移動させるとき、表示部11に表示されたオブジェクトのうち第1対象部位または第2対象部位がタッチされた状態で端末の移動が行われてもよい。このとき、表示部11に表示されたオブジェクト80が静止された状態で仮想空間上の第1対象部位の座標のみ変更してもよい。仮想空間上では第2対象部位を基準として第1対象部位が移動する。端末10の移動が終了したとき、表示部11には第1対象部位の位置が変更されたオブジェクトが表示されてもよい。 Further, in the first embodiment of the present invention, when the terminal 10 is moved, the terminal is moved while the first target site or the second target site among the objects displayed on the display unit 11 is touched. good too. At this time, only the coordinates of the first target part in the virtual space may be changed while the object 80 displayed on the display unit 11 is stationary. In the virtual space, the first target part moves with the second target part as a reference. When the movement of the terminal 10 is finished, the display unit 11 may display an object in which the position of the first target part has been changed.

本発明の第1実施形態では、撮影された画像と、仮想空間のオブジェクトとをマーカーベース位置合わせ法により位置合わせされ、重畳表示された例を示したが、これに限定されない。オブジェクトを含む仮想空間と、撮影画像との位置合わせの方法として、マーカーベース位置合わせ手法のほかに、特定のマーカーを用いない自然特徴ベース位置合わせ手法、モデルベース位置合わせ手法などのビジョンベース位置合わせ手法、センサを用いたセンサベース位置合わせ手法などを適宜用いてもよい。また、必ずしも撮影画像と仮想空間のオブジェクトとは、位置合わせする必要はなく、仮想空間のオブジェクトの座標が設定できるものであれば、適宜最適な手法を用いればよい。 In the first embodiment of the present invention, an example in which a photographed image and an object in a virtual space are aligned by a marker-based alignment method and displayed in a superimposed manner has been described, but the present invention is not limited to this. In addition to marker-based registration methods, vision-based registration methods such as natural feature-based registration methods that do not use specific markers and model-based registration methods are available as methods for aligning virtual space including objects with captured images. Techniques, sensor-based registration techniques using sensors, and the like may be used as appropriate. Further, the photographed image and the object in the virtual space do not necessarily have to be aligned, and any suitable method may be used as long as the coordinates of the object in the virtual space can be set.

また、本発明の第1実施形態では、拡張現実を用いてオブジェクトを表示する例を示したが、これに限定さない。本発明の一実施形態は、オブジェクトの座標が特定できれば、拡張現実以外にも仮想現実(VR:Virtual Reality)、混合現実(MR:Mixed Reality)などに適用することも可能である。 Also, in the first embodiment of the present invention, an example of displaying an object using augmented reality was shown, but the present invention is not limited to this. An embodiment of the present invention can be applied to not only augmented reality but also virtual reality (VR), mixed reality (MR), etc., as long as the coordinates of an object can be specified.

また、本発明の第1実施形態では、一つの端末を用いて、オブジェクトの表示およびオブジェクトの姿勢制御を行う例を示したが、これに限定さない。複数の端末をネットワーク50で連携させて、オブジェクトの姿勢を制御してもよい。例えば、図35に示すように一つの端末10(端末10-1)でオブジェクトの表示を行い、他の端末10(端末10-2)の位置を変動させることにより、オブジェクトとの姿勢を制御してもよい。これにより、一つの端末10で固定してオブジェクトを表示し続けることができるので、オブジェクトの精細な姿勢制御を行うことができる。また、端末10-1と端末10-2とは、同種の端末でなくてもよい。例えば、表示するための端末としてゴーグル型の端末を用いてもよいし、姿勢制御用の端末として、時計型の端末を用いてもよい。 Also, in the first embodiment of the present invention, an example of displaying an object and controlling the attitude of the object using one terminal has been described, but the present invention is not limited to this. A plurality of terminals may be linked by the network 50 to control the attitude of the object. For example, as shown in FIG. 35, one terminal 10 (terminal 10-1) displays an object, and by changing the position of the other terminal 10 (terminal 10-2), the posture with respect to the object is controlled. may As a result, the object can be fixed and displayed continuously on one terminal 10, so that the posture of the object can be finely controlled. Also, the terminals 10-1 and 10-2 do not have to be terminals of the same type. For example, a goggle-type terminal may be used as a terminal for displaying, and a watch-type terminal may be used as a terminal for attitude control.

1・・・オブジェクト姿勢制御システム,10・・・端末,11・・・表示部,12・・・制御部,13・・・記憶部,14・・・操作部,15・・・通信部,16・・・センサ部,17・・・カメラ部,18・・・マイク部,20・・・サーバ,21・・・通信部,22・・・記憶部,23・・・制御部,24・・・表示部,50・・・ネットワーク,60・・・テーブル,70・・・シート,75・・・マーカー,80・・・オブジェクト,81・・・部位,82・・・ボーン,90・・・ユーザ,100・・・オブジェクト姿勢制御部,110・・・撮影画像取得部,120・・・マーカー検出部,130・・・空間定義部,140・・・オブジェクト表示部,150・・・第1対象部位設定部,160・・・第2対象部位設定部,170・・・連動部位判定部,180・・・移動情報取得部,190・・・オブジェクト座標変更部,195・・・限界点検出部,200・・・第3対象部位設定部,210・・・連動部位追加部,220・・・第4対象部位設定部,230・・・第5対象部位設定部 DESCRIPTION OF SYMBOLS 1... Object attitude control system, 10... Terminal, 11... Display part, 12... Control part, 13... Storage part, 14... Operation part, 15... Communication part, 16... sensor section, 17... camera section, 18... microphone section, 20... server, 21... communication section, 22... storage section, 23... control section, 24... Display section 50 Network 60 Table 70 Sheet 75 Marker 80 Object 81 Site 82 Bone 90 User 100 Object posture control unit 110 Photographed image acquisition unit 120 Marker detection unit 130 Space definition unit 140 Object display unit 150 Third 1 target part setting unit 160 second target part setting unit 170 interlocking part determination unit 180 movement information acquisition unit 190 object coordinate change unit 195 limit check Output part 200 Third target part setting part 210 Interlocking part addition part 220 Fourth target part setting part 230 Fifth target part setting part

Claims (10)

情報処理装置に、
仮想空間に配置された、複数の連動する部位を有するオブジェクトを表示部に表示し、
前記情報処理装置の動きに関する情報に基づいて、複数の連動する部位のうち一部の対象部位を移動するように前記オブジェクトの姿勢を制御することを実行させるためのプログラムであって、
前記情報処理装置は、設定部を有し、
前記設定部は、前記表示部に表示されたオブジェクトの一部がタッチ操作されたときに入力された情報に基づいて、前記複数の連動する部位のうち一部の対象部位を設定する、
オブジェクト姿勢制御プログラム。
information processing equipment,
displaying an object having multiple interlocking parts arranged in a virtual space on the display unit;
A program for controlling the posture of the object so as to move a part of a plurality of interlocking parts based on information about the movement of the information processing device, the program comprising:
The information processing device has a setting unit,
The setting unit sets a target part of the plurality of interlocking parts based on information input when part of the object displayed on the display unit is touch-operated.
Object attitude control program.
前記設定部は、前記複数の連動する部位のうち前記一部であって、前記オブジェクトの移動可能な第1対象部位を設定し、
前記複数の連動する部位のうち第2対象部位は、設定された前記第1対象部位に基づいて前記設定部により設定され、
前記第1対象部位は、前記第2対象部位を基準として移動する、
請求項に記載のオブジェクト姿勢制御プログラム。
The setting unit sets a movable first target portion of the object, which is the part of the plurality of interlocking portions, and
A second target part among the plurality of interlocking parts is set by the setting unit based on the set first target part,
The first target part moves with the second target part as a reference,
2. The object attitude control program according to claim 1 .
前記第1対象部位が可動領域の限界点に到達したときに、前記第2対象部位に連結し、前記第2対象部位に対して前記第1対象部位の反対側に設けられた第3対象部位を設定し、
前記第3対象部位を基準にして前記オブジェクトの前記第2対象部位が移動することを含む、請求項に記載のオブジェクト姿勢制御プログラム。
A third target portion connected to the second target portion when the first target portion reaches the limit point of the movable region and provided on the opposite side of the first target portion with respect to the second target portion. and set
3. The object posture control program according to claim 2 , comprising moving said second target part of said object with reference to said third target part.
前記表示部に表示された前記オブジェクトにおいて、前記第1対象部位または前記第2対象部位を設定するときに複数の部位が重畳する部分が指定されたとき、前記オブジェクトの表示される方向を変更する、
請求項またはに記載のオブジェクト姿勢制御プログラム。
In the object displayed on the display unit, when a portion where a plurality of parts overlap is specified when setting the first target part or the second target part, the direction in which the object is displayed is changed. ,
4. The object attitude control program according to claim 2 or 3 .
前記表示部に表示されたオブジェクトにおいて、前記第1対象部位または前記第2対象部位を設定するときに複数の部位が重畳する部分が指定されたとき、所定の条件を満たす部位を前記第1対象部位または前記第2対象部位として設定する、
請求項またはに記載のオブジェクト姿勢制御プログラム。
In the object displayed on the display unit, when a portion where a plurality of parts overlap is specified when setting the first target part or the second target part, the part satisfying a predetermined condition is selected as the first target part. Set as the part or the second target part,
4. The object attitude control program according to claim 2 or 3 .
前記表示部に表示された前記オブジェクトにおいて、前記第1対象部位または前記第2対象部位を設定するときに複数の部位が重畳する部分が指定されたとき、前記重畳する部分に対する所定の操作に基づいて、前記第1対象部位または前記第2対象部位を設定する、
請求項またはに記載のオブジェクト姿勢制御プログラム。
In the object displayed on the display unit, when a portion where a plurality of parts overlap is specified when setting the first target part or the second target part, based on a predetermined operation on the overlapping part to set the first target part or the second target part,
5. The object attitude control program according to claim 3 or 4 .
前記第1対象部位および前記第2対象部位とは異なる、前記オブジェクトの移動可能な第4対象部位を設定し、
前記第4対象部位に連結された第5対象部位を設定し、
前記情報処理装置の動きに関する情報に基づいて、前記第2対象部位を基準として前記オブジェクトの前記第1対象部位が移動し、前記第5対象部位を基準として前記第4対象部位が移動する、
請求項乃至のいずれか一項に記載のオブジェクト姿勢制御プログラム。
setting a movable fourth target portion of the object that is different from the first target portion and the second target portion;
setting a fifth target site connected to the fourth target site;
The first target part of the object moves with respect to the second target part, and the fourth target part moves with respect to the fifth target part, based on the information about the movement of the information processing device.
7. The object attitude control program according to any one of claims 2 to 6 .
前記オブジェクトの前記第1対象部位が移動して、前記第1対象部位および前記第2対象部位とは異なる移動可能な部位に接触したときに第4対象部位として設定し、
前記第4対象部位に連結された第5対象部位を設定し、
前記第1対象部位の移動に基づき、前記第5対象部位を基準として前記第4対象部位が移動する、
請求項乃至のいずれか一項に記載のオブジェクト姿勢制御プログラム。
setting as a fourth target portion when the first target portion of the object moves and contacts a movable portion different from the first target portion and the second target portion;
setting a fifth target site connected to the fourth target site;
Based on the movement of the first target part, the fourth target part moves with respect to the fifth target part.
8. The object attitude control program according to any one of claims 2 to 7 .
前記第1対象部位または前記第2対象部位がタッチされた状態で、前記情報処理装置が移動したときに、前記表示されたオブジェクトが静止した状態で、前記仮想空間上の前記オブジェクトの前記第2対象部位を基準として前記第1対象部位が移動する、請求項乃至のいずれか一項に記載のオブジェクト姿勢制御プログラム。 When the information processing device moves while the first target portion or the second target portion is touched, the second target portion of the object in the virtual space is moved while the displayed object remains stationary. 9. The object posture control program according to any one of claims 2 to 8 , wherein the first target part moves with respect to the target part. 仮想空間に配置されたオブジェクトの姿勢を制御するオブジェクト姿勢制御システムであって、
複数の連動する部位を有する前記オブジェクトを表示部に表示し、
情報処理装置の動きに関する情報に基づいて、前記複数の連動する部位のうち一部を移動するように前記オブジェクトの姿勢を制御し、
前記表示部に表示されたオブジェクトの一部がタッチ操作されたときに入力された情報に基づいて、前記複数の連動する部位のうち一部の対象部位を設定するオブジェクト姿勢制御システム。
An object attitude control system that controls the attitude of an object placed in a virtual space,
displaying the object having a plurality of interlocking parts on the display unit;
controlling the posture of the object so as to move a part of the plurality of interlocking parts based on information about the movement of the information processing device ;
An object posture control system for setting a part of target parts among the plurality of interlocking parts based on information input when a part of the object displayed on the display unit is touch-operated.
JP2019057267A 2019-03-25 2019-03-25 Object attitude control program and object attitude control system Active JP7284385B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019057267A JP7284385B2 (en) 2019-03-25 2019-03-25 Object attitude control program and object attitude control system
JP2023077396A JP2023099603A (en) 2019-03-25 2023-05-09 Object posture control program and object posture control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019057267A JP7284385B2 (en) 2019-03-25 2019-03-25 Object attitude control program and object attitude control system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023077396A Division JP2023099603A (en) 2019-03-25 2023-05-09 Object posture control program and object posture control system

Publications (2)

Publication Number Publication Date
JP2020160615A JP2020160615A (en) 2020-10-01
JP7284385B2 true JP7284385B2 (en) 2023-05-31

Family

ID=72643386

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019057267A Active JP7284385B2 (en) 2019-03-25 2019-03-25 Object attitude control program and object attitude control system
JP2023077396A Pending JP2023099603A (en) 2019-03-25 2023-05-09 Object posture control program and object posture control system

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023077396A Pending JP2023099603A (en) 2019-03-25 2023-05-09 Object posture control program and object posture control system

Country Status (1)

Country Link
JP (2) JP7284385B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7437484B1 (en) 2022-11-16 2024-02-22 株式会社バンダイ Computer program, information processing terminal, and its control method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055851A (en) 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス Information processing device, display control method, and display control program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055851A (en) 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス Information processing device, display control method, and display control program

Also Published As

Publication number Publication date
JP2020160615A (en) 2020-10-01
JP2023099603A (en) 2023-07-13

Similar Documents

Publication Publication Date Title
US10384348B2 (en) Robot apparatus, method for controlling the same, and computer program
CN110476168B (en) Method and system for hand tracking
US20180136806A1 (en) Display control apparatus, display control method, and program
JP6526098B2 (en) Operating device for operating a robot, robot system, and operating method
KR20140130675A (en) Image processing device, and computer program product
US10254847B2 (en) Device interaction with spatially aware gestures
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
US9753539B2 (en) Method, device, system and non-transitory computer-readable recording medium for providing user interface
JP7078234B2 (en) How to create a 3D object to be placed in augmented reality space
JP2023099603A (en) Object posture control program and object posture control system
KR102021851B1 (en) Method for processing interaction between object and user of virtual reality environment
Wilk et al. Wearable human computer interface for control within immersive VAMR gaming environments using data glove and hand gestures
US10175767B2 (en) Method, device, system and non-transitory computer-readable recording medium for providing user interface
JP7299478B2 (en) Object attitude control program and information processing device
JP2016225875A (en) Travel apparatus operation terminal, travel apparatus operation method and travel apparatus operation program
US20190163342A1 (en) Information processing system, information processing method, and program
WO2022249226A1 (en) Robot teaching device, robot control system, robot teaching method, and robot teaching program
US20170212582A1 (en) User interface selection
TWI815593B (en) Method and system for detecting hand gesture, and computer readable storage medium
JP6523509B1 (en) Game program, method, and information processing apparatus
Tartari et al. Global interaction space for user interaction with a room of computers
Horiuchi et al. Short range fingertip pointing operation interface by depth camera
US10437463B2 (en) Motion-based graphical input system
JP6279148B1 (en) Communication terminal and communication system
KR20170089300A (en) A method of digitizer function offer using the camera of a smartphone

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230501

R150 Certificate of patent or registration of utility model

Ref document number: 7284385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150