JP2020119335A - Program, camera work data generation method, and electronic apparatus - Google Patents

Program, camera work data generation method, and electronic apparatus Download PDF

Info

Publication number
JP2020119335A
JP2020119335A JP2019010523A JP2019010523A JP2020119335A JP 2020119335 A JP2020119335 A JP 2020119335A JP 2019010523 A JP2019010523 A JP 2019010523A JP 2019010523 A JP2019010523 A JP 2019010523A JP 2020119335 A JP2020119335 A JP 2020119335A
Authority
JP
Japan
Prior art keywords
recording
camera
virtual
work data
camera work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019010523A
Other languages
Japanese (ja)
Inventor
建一 小倉
Kenichi Ogura
建一 小倉
伸太郎 村井
Shintaro Murai
伸太郎 村井
正 齊藤
Tadashi Saito
正 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Original Assignee
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc, Bandai Namco Studios Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2019010523A priority Critical patent/JP2020119335A/en
Publication of JP2020119335A publication Critical patent/JP2020119335A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a new technique for creating augmented reality or virtual reality moving images with reality that gives an impression as if users themselves held a video camera in a hand and shot it.SOLUTION: A user terminal 1500 controls the position and attitude of a virtual camera C1 that photographs a virtual three-dimensional space in conjunction with measurement data of the position and attitude, and displays a virtual space image as a finder image. On the other hand, it records camera work data capable of reproducing the position and attitude of the virtual camera. When recording, the user terminal records camera work data after a recording resumption instruction as camera work data that continues after interruption timing of the camera work data before stop by adjusting the position and attitude of the virtual camera when starting recording in response to the recording resumption instruction to the position and attitude of the virtual camera at the given interruption timing of camera work data before stop by a recording stop instruction.SELECTED DRAWING: Figure 10

Description

本発明は、コンピュータに、仮想3次元空間を撮影する仮想カメラを制御させるためのプログラム等に関する。 The present invention relates to a program and the like for causing a computer to control a virtual camera that captures a virtual three-dimensional space.

拡張現実(AR:Augmented Reality)の技術は、さまざまな分野で利用されている。例えば、特許文献1には、現実空間におけるユーザ端末の位置と、仮想3次元空間における仮想カメラの位置とを対応づけ、当該仮想カメラで仮想3次元空間内に配置されているオブジェクト(例えば、ゲームに登場するキャラクタなど)を撮影した画像と、ユーザ端末に搭載されているカメラで撮影した現実空間の画像とを重畳表示させる技術や、ユーザの操作入力に基づいて、重畳表示させた画像を記録することができる技術が開示されている。 Augmented Reality (AR) technology is used in various fields. For example, in Patent Document 1, the position of the user terminal in the physical space and the position of the virtual camera in the virtual three-dimensional space are associated with each other, and an object (for example, a game) arranged in the virtual three-dimensional space by the virtual camera is associated. The technique of superimposing a captured image of a character that appears on the camera with the image of the physical space captured by the camera installed in the user terminal, and recording the superimposed image based on the user's operation input Techniques that can be done are disclosed.

特開2012−69126号公報JP 2012-69126 A

特許文献1の技術を用いると、ユーザはあたかも現実空間の中に仮想のキャラクタがそこに存在しているかのような静止画像を作る楽しみが得られる。しかし、ユーザは自らがビデオカメラを手に持って撮影したかのような拡張現実の動画を得ることはできなかった。 By using the technique of Patent Document 1, the user can enjoy making a still image as if a virtual character exists in the real space. However, the user could not obtain an augmented reality moving image as if he/she held the video camera in his hand.

高性能なパーソナルコンピュータなどを利用して、3DCG(3-Dimensional Computer Graphics)ソフトを用いれば、拡張現実の動画も作成することは可能ではある。しかしその場合、できあがった拡張現実の動画のカメラワークは、実に滑らかで、あたかも映像のプロが高機能なジンバルを用いて撮影したかのような動画になる。そこには、ユーザ自らがビデオカメラを手に持って撮影したときに生まれるリアルな手ぶれ感がない。そのため「ユーザ自らが作った」と言う手作り感や、「ユーザが撮影した」と言うリアリティは薄く、いかにも「CGソフトで作りました」と言うどこか作り物めいた感じを拭えなかった。同じ事をプロフェッショナルな映像作家の立場から見れば、映像表現の演出上、ユーザ自らがビデオカメラを手に持って撮影したかのような印象を与えるリアリティを追求した拡張現実の動画を作らねばならないケースでは、手ぶれ感のないスムーズすぎるカメラワークでは、要求される演出を実現できないことになる。 By using 3DCG (3-Dimensional Computer Graphics) software using a high-performance personal computer, it is possible to create an augmented reality moving image. In that case, however, the resulting augmented reality video camera work is very smooth, as if the video professional was shooting with a high-performance gimbal. There is no real camera shake that occurs when the user himself holds the video camera and shoots. Therefore, the handmade feeling of "made by the user" and the reality of "photographed by the user" were thin, and I couldn't wipe out the feeling of something made of "CG software". From the perspective of a professional filmmaker, the same thing must be done to create an augmented reality movie that pursues the reality that gives the impression that the user himself/herself has taken a video camera in order to produce a video expression. In the case, if the camerawork is too smooth without camera shake, the required performance cannot be realized.

こうした問題は、拡張現実画像の動画作成に限らず、仮想現実(VR:Virtual Reality)の動画作成においても同様に言える。 Such a problem is not limited to the creation of a moving image of augmented reality images, and can be similarly applied to the creation of a virtual reality (VR) moving image.

本発明は、ユーザ自らがビデオカメラを手に持って撮影したかのような印象を与えるリアリティのある拡張現実や仮想現実の動画を作成するための新たな技術の提供を課題として考案されたものである。 The present invention has been devised as a subject to provide a new technique for creating a realistic augmented reality or virtual reality moving image that gives the impression that the user himself/herself has taken a video camera and photographed it. Is.

上記した課題を解決するための第1の発明は、携帯型のコンピュータを、仮想3次元空間を設定する仮想空間設定手段(例えば、図2の制御基板1550、図14の端末処理部200、カメラワーク記録管理部210、仮想空間設定制御部212、図16のステップS12)、
前記コンピュータの現実空間における位置および姿勢に基づいて、前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を制御する仮想カメラ制御手段(例えば、図2の制御基板1550、図14の端末処理部200、カメラワーク記録管理部210、仮想カメラ制御部214、図16のステップS12)、
前記仮想カメラ制御手段によって連続的に制御された前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録するカメラワークデータ生成手段(例えば、図2の制御基板1550、図5のカメラワークデータ550、図14の端末処理部200、カメラワーク記録管理部210、カメラワークデータ生成部220、端末記憶部500、図16のステップS18)、として機能させ、
前記カメラワークデータ生成手段は、
所与の記録再開指示に応じて記録を開始した際の前記仮想カメラの位置および姿勢を、所与の記録停止指示による停止前のカメラワークデータの所与の中断タイミングにおける前記仮想カメラの位置および姿勢に適合させることで、前記記録再開指示後のカメラワークデータを、前記停止前のカメラワークデータの前記中断タイミング以降に引き続くカメラワークデータとして記録する中断再開制御手段(例えば、図2の制御基板1550、図14の端末処理部200、カメラワーク記録管理部210、中断再開制御部222、図17のステップS42、図18のステップS80)、を有する、プログラムである。
A first aspect of the present invention for solving the above-mentioned problem is to provide a portable computer with a virtual space setting means for setting a virtual three-dimensional space (for example, control board 1550 in FIG. 2, terminal processing unit 200 in FIG. 14, camera). The work record management unit 210, the virtual space setting control unit 212, step S12 in FIG. 16),
Virtual camera control means for controlling the position and orientation of the virtual camera that captures the virtual three-dimensional space based on the position and orientation of the computer in the physical space (for example, control board 1550 in FIG. 2, terminal processing unit in FIG. 14). 200, camera work record management unit 210, virtual camera control unit 214, step S12 in FIG. 16,),
A camera work data generation unit that records camera work data capable of reproducing the position and orientation of the virtual camera in the virtual three-dimensional space continuously controlled by the virtual camera control unit (for example, the control board 1550 in FIG. 2). , Camera work data 550 in FIG. 5, terminal processing unit 200 in FIG. 14, camera work record management unit 210, camera work data generation unit 220, terminal storage unit 500, step S18 in FIG. 16,).
The camera work data generation means,
The position and orientation of the virtual camera at the time of starting recording in response to a given recording restart instruction are defined as the position of the virtual camera at a given interruption timing of the camera work data before the stop by the given recording stop instruction and An interruption/resumption control unit (for example, the control board in FIG. 2) that records the camera work data after the recording resumption instruction as camera work data that continues after the interruption timing of the camera work data before the stop by adapting to the posture. 1550, the terminal processing unit 200 of FIG. 14, the camera work recording management unit 210, the interruption/resumption control unit 222, step S42 of FIG. 17, step S80 of FIG. 18).

第1の発明によれば、コンピュータは、当該コンピュータの位置や姿勢に連動する仮想カメラで撮影した仮想空間画像を生成しつつ、仮想カメラの位置や姿勢を再現できるカメラワークデータを生成・記録する。つまり、ユーザが、仮想空間画像をファインダー画像のように見ながらコンピュータをあたかも携帯型ビデオカメラのようにして、位置を変え、姿勢を変える動画撮影のカメラワークを行えば、そのカメラワークのデータがコンピュータに記録される。 According to the first aspect of the present invention, the computer generates and records camera work data capable of reproducing the position and orientation of the virtual camera while generating the virtual space image captured by the virtual camera linked to the position and orientation of the computer. .. In other words, if a user looks at a virtual space image like a viewfinder image and uses the computer as if it were a portable video camera, he or she changes the position and changes the posture. Recorded on the computer.

当然、このカメラワークデータを元に再現される仮想カメラの移動軌跡には、実際にユーザが手に持って撮影したことで生じたリアルな「ゆらぎ」が含まれている。従って、コンピュータに記録されたカメラワークデータを、3DCGソフトで用いれば、「ユーザ自らがビデオカメラを手に持って撮影した」リアリティのある拡張現実や仮想現実の画像の動画を作成できる。 Naturally, the movement locus of the virtual camera reproduced based on the camera work data includes a real “fluctuation” caused by the user actually holding and photographing. Therefore, if the camera work data recorded in the computer is used by the 3DCG software, it is possible to create a realistic moving image of an augmented reality image or a virtual reality image "a user himself/herself took a video camera and took a picture".

加えて、カメラワークデータの記録は、中断と再開が可能である。よって、ユーザがカメラワークの記録の一時停止と再開を任意に行うことが可能になるので、思い通りのカメラワークデータを記録し易くなる。例えば、カメラワークデータの記録中に、ユーザの体勢が苦しくなってしまい、思い描いているカメラワークを継続出来なくなったとしても、記録を一時停止させ、体勢を直してからカメラワークデータの記録を再開することができる。 In addition, recording camera work data can be interrupted and resumed. Therefore, the user can arbitrarily pause and resume the recording of the camera work, and it becomes easy to record the desired camera work data. For example, even if the user's posture becomes uncomfortable during the recording of camerawork data and the desired camerawork cannot be continued, the recording is temporarily stopped, the posture is corrected, and then the recording of the camerawork data is resumed. can do.

そして、記録が再開される際には、コンピュータは、記録再開指示に応じて記録を開始した際の仮想カメラの位置および姿勢を、停止指示による停止前のカメラワークデータの所与の中断タイミングにおける仮想カメラの位置および姿勢に適合させる補正を自動的に行い、記録再開指示後のカメラワークデータを、停止前のカメラワークデータの中断タイミング以降に引き続くカメラワークデータとして記録を再開することができる。言い換えると、中断時のコンピュータの位置と、再開時のコンピュータの位置とに差異があったとしても、中断前後で位置飛びが生じることのない、一繋がりのカメラワークデータを記録できる。拡張現実や仮想現実の動画を作成するための新たな技術を提供することができる。 Then, when the recording is restarted, the computer determines the position and the posture of the virtual camera when the recording is started in response to the recording restart instruction at the given interruption timing of the camera work data before the stop by the stop instruction. It is possible to automatically perform the correction adapted to the position and orientation of the virtual camera, and restart the recording of the camera work data after the recording restart instruction as the camera work data that continues after the interruption timing of the camera work data before the stop. In other words, even if there is a difference between the position of the computer at the time of interruption and the position of the computer at the time of restart, it is possible to record a series of camera work data that does not cause a position jump before and after the interruption. It is possible to provide a new technology for creating a video of augmented reality or virtual reality.

第2の発明は、前記カメラワークデータ生成手段が、現実空間に設定された所与の位置を基準とした前記コンピュータの相対位置および相対姿勢を時系列に記録したデータ、或いは、前記仮想カメラの位置および姿勢を時系列に記録したデータを少なくとも含むデータの記録を制御する、第1の発明プログラムである。 A second aspect of the present invention is data in which the camera work data generation means records in time series the relative position and relative attitude of the computer with respect to a given position set in the physical space, or the virtual camera It is a first invention program for controlling recording of data including at least data in which position and orientation are recorded in time series.

第2の発明によれば、カメラワークデータとして、現実空間に設定された所与の位置を基準としたコンピュータの相対位置および相対姿勢を時系列に記録したデータ、或いは、仮想カメラの位置および姿勢を時系列に記録したデータを少なくとも含むデータを記録できる。 According to the second invention, as the camera work data, data in which the relative position and the relative attitude of the computer with respect to the given position set in the physical space are recorded in time series, or the position and the attitude of the virtual camera are recorded. It is possible to record data including at least data recorded in time series.

第3の発明は、前記中断再開制御手段が、前記記録再開指示に応じて記録を開始した際の前記仮想カメラの位置および姿勢を、前記停止前のカメラワークデータの前記中断タイミングにおける前記仮想カメラの位置および姿勢に適合させるための変換関数を生成する変換関数生成手段(例えば、図2の制御基板1550、図14の端末処理部200、カメラワーク記録管理部210、変換関数生成部224、図15の変換関数データ590、図17のステップS56〜ステップS58)、を有し、前記変換関数を用いて前記記録再開指示後のカメラワークデータを記録し、または、前記変換関数を時系列に記憶する、第1又は第2の発明のプログラムである。 In a third aspect of the invention, the position and orientation of the virtual camera when the interruption/resumption control unit starts recording in response to the recording restart instruction is the virtual camera at the interruption timing of the camera work data before the stop. Conversion function generating means for generating a conversion function for adapting to the position and orientation of the camera (for example, the control board 1550 in FIG. 2, the terminal processing unit 200 in FIG. 14, the camera work record management unit 210, the conversion function generation unit 224, FIG. 15 conversion function data 590, steps S56 to S58 in FIG. 17, and uses the conversion function to record the camera work data after the recording restart instruction, or to store the conversion function in time series. The program according to the first or second invention.

第3の発明によれば、変換関数を用いて記録再開指示後のカメラワークデータを記録可能となり、記録の停止前のカメラワークデータと、記録の再開後のカメラワークデータとが一連のデータとして記録されるので、データ管理が容易になる。また、変換関数をカメラワークデータと対応付けて時系列に記憶することで、記録後にカメラワークデータを補正したり、カメラワークデータに基づく仮想空間画像の生成を行う段階で適合に関する補正処理を行うことが可能になる。 According to the third aspect, the camera work data after the recording restart instruction can be recorded using the conversion function, and the camera work data before the recording is stopped and the camera work data after the recording is restarted are a series of data. Since it is recorded, data management becomes easy. In addition, by storing the conversion function in time series in association with the camera work data, the camera work data is corrected after recording, and a correction process regarding conformity is performed at the stage of generating a virtual space image based on the camera work data. It will be possible.

第4の発明は、前記中断再開制御手段が、前記記録再開指示後のカメラワークデータへの前記変換関数の適用効果を時間経過に応じて徐々に低減させる、第3の発明のプログラムである。 A fourth invention is the program according to the third invention, wherein the interruption/resumption control means gradually reduces the application effect of the conversion function to the camera work data after the recording restart instruction, as time elapses.

第4の発明によれば、変換関数の効果を徐々に低減させることができる。 According to the fourth aspect, the effect of the conversion function can be gradually reduced.

第5の発明は、前記計測データが、前記仮想3次元空間を撮影する際の不適な変化をしたことを示す所与の不適変化条件を満たしたことを検出し、当該検出に応じて前記記録停止指示を与える不適変化時自動停止手段(例えば、図2の制御基板1550、図14の端末処理部200、カメラワーク記録管理部210、不適変化自動停止部234、図17のステップS32)、
前記不適変化時自動停止手段による記録の停止をユーザに通知する通知制御手段(例えば、図2の制御基板1550、図14の端末処理部200、カメラワーク記録管理部210、通知制御部236、図17のステップS41)、
として前記コンピュータを機能させるための第1〜第4の何れかの発明のプログラムである。
5th invention detects that the said measurement data satisfy|filled the given improper change conditions which show that the improper change at the time of image|photographing the said virtual three-dimensional space, and recorded the said recording according to the said detection. Improper change automatic stop means for giving a stop instruction (for example, control board 1550 in FIG. 2, terminal processing unit 200 in FIG. 14, camera work record management unit 210, improper change automatic stop unit 234, step S32 in FIG. 17),
Notification control means for notifying the user of the stop of the recording by the automatic stop means at the time of improper change (for example, the control board 1550 in FIG. 2, the terminal processing unit 200 in FIG. 14, the camera work record management unit 210, the notification control unit 236, FIG. 17 step S41),
Is a program of any one of the first to fourth inventions for causing the computer to function as.

第5の発明によれば、コンピュータの位置や姿勢が、撮影に適さない変化を起こした場合に、自動的に記録を停止し、その旨をユーザに通知することができる。よって、例えば、コンピュータを携帯しているユーザが躓いて大きなブレが生じた場合や、コンピュータを周囲の何かにぶつけて大きなブレが生じた場合には、ユーザ自らが記録を停止させなくとも、自動的に記録が停止されるので便利である。 According to the fifth aspect, when the position or orientation of the computer changes unsuitable for photographing, recording can be automatically stopped and the user can be notified of that fact. Therefore, for example, if a user carrying a computer stumbles and a large blur occurs, or if the computer hits something in the vicinity to cause a large blur, the user does not have to stop the recording. This is convenient because recording is automatically stopped.

第6の発明は、前記中断タイミングの候補タイミングを自動選択し、当該候補タイミングにおける前記仮想カメラの位置および姿勢で撮影された前記仮想3次元空間の画像をユーザに提示する制御を行う候補タイミング提示手段(例えば、図2の制御基板1550、図14の端末処理部200、カメラワーク記録管理部210、候補タイミング提示部242、図17のステップS46〜ステップS50)、として前記コンピュータを機能させるための第1〜第5の何れかの発明のプログラムである。 A sixth invention is to present a candidate timing for performing control to automatically select a candidate timing of the interruption timing and present a user with an image of the virtual three-dimensional space photographed at the position and orientation of the virtual camera at the candidate timing. For operating the computer as means (for example, control board 1550 in FIG. 2, terminal processing unit 200 in FIG. 14, camera work record management unit 210, candidate timing presentation unit 242, step S46 to step S50 in FIG. 17). It is a program according to any one of the first to fifth inventions.

第6の発明によれば、ユーザに中断タイミングとして適当な候補を提示できる。よって、ユーザは自ら中断タイミングを探す手間が省ける。 According to the sixth aspect, it is possible to present the user with an appropriate candidate as the interruption timing. Therefore, the user can save the trouble of searching for the interruption timing by himself.

第7の発明は、前記記録再開指示に応じて記録の開始を行う際に、前記計測データに基づく前記仮想カメラの位置および姿勢と、前記停止前のカメラワークデータに基づく前記中断タイミングでの前記仮想カメラの位置および姿勢との差が、所与のズレ条件を満たす場合に、ユーザに警告を行う警告制御手段、として前記コンピュータを機能させるための第1〜第6の何れかの発明のプログラムである。 A seventh aspect of the present invention, when recording is started in response to the recording restart instruction, the position and orientation of the virtual camera based on the measurement data and the interruption timing based on the camera work data before the stop. The program according to any one of the first to sixth inventions for causing the computer to function as warning control means for warning the user when the difference between the position and the posture of the virtual camera satisfies a given deviation condition. Is.

第7の発明によれば、記録の中断と再開とを挟んで、カメラワークのズレを判定して、ユーザに警告を発することができる。 According to the seventh aspect of the invention, it is possible to determine the deviation of the camera work and issue a warning to the user with the interruption and the resumption of the recording sandwiched.

第8の発明は、携帯型のコンピュータが実行するカメラワークデータ生成方法であって、
仮想3次元空間を設定する仮想空間設定ステップ(例えば、図16のステップS12)と、
実空間における携帯型コンピュータの位置および姿勢を計測した計測データを取得する計測データ取得ステップ(例えば、図16のステップS10)と、
取得した計測データに基づいて、前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を連続的に制御する仮想カメラ制御ステップ(例えば、図16のステップS12)と、
連続的に制御された前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録するカメラワークデータ生成ステップ(例えば、図16のステップS18〜ステップS22)と、
を含み、
前記カメラワークデータ生成ステップは、
所与の記録再開指示に応じて記録を開始した際の前記仮想カメラの位置および姿勢を、所与の記録停止指示による停止前のカメラワークデータの所与の中断タイミングにおける前記仮想カメラの位置および姿勢に適合させることで、前記記録再開指示後のカメラワークデータを、前記停止前のカメラワークデータの前記中断タイミング以降に引き続くカメラワークデータとして記録するステップを含む、
カメラワークデータ生成方法である。
An eighth invention is a camera work data generation method executed by a portable computer,
A virtual space setting step of setting a virtual three-dimensional space (for example, step S12 of FIG. 16),
A measurement data acquisition step of acquiring measurement data obtained by measuring the position and orientation of the portable computer in the real space (for example, step S10 of FIG. 16),
A virtual camera control step (for example, step S12 in FIG. 16) that continuously controls the position and orientation of the virtual camera that captures the virtual three-dimensional space based on the acquired measurement data,
A camera work data generation step of recording camera work data capable of reproducing the position and orientation of the virtual camera in the continuously controlled virtual three-dimensional space (for example, step S18 to step S22 in FIG. 16),
Including
The camerawork data generation step,
The position and orientation of the virtual camera at the time of starting recording in response to a given recording restart instruction are defined as the position of the virtual camera at a given interruption timing of the camera work data before the stop by the given recording stop instruction and By adapting to the posture, the step of recording the camera work data after the recording restart instruction is recorded as camera work data that continues after the interruption timing of the camera work data before the stop,
This is a camera work data generation method.

第8の発明によれば、第1の発明と同様の効果を得ることができる。 According to the eighth invention, the same effect as that of the first invention can be obtained.

第9の発明は、携帯型の電子機器であって、仮想3次元空間を設定する仮想空間設定手段と、前記電子機器の実空間における位置および姿勢に基づいて、前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を制御する仮想カメラ制御手段と、前記仮想カメラ制御手段によって連続的に制御された前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録するカメラワークデータ生成手段と、を備え、前記カメラワークデータ生成手段は、所与の記録再開指示に応じて記録を開始した際の前記仮想カメラの位置および姿勢を、所与の記録停止指示による停止前のカメラワークデータの所与の中断タイミングにおける前記仮想カメラの位置および姿勢に適合させることで、前記記録再開指示後のカメラワークデータを、前記停止前のカメラワークデータの前記中断タイミング以降に引き続くカメラワークデータとして記録する手段、を有する、電子機器である。 A ninth aspect of the present invention is a portable electronic device that captures the virtual three-dimensional space based on a virtual space setting unit that sets a virtual three-dimensional space and the position and orientation of the electronic device in the real space. Virtual camera control means for controlling the position and orientation of the virtual camera, and camera work data capable of reproducing the position and orientation of the virtual camera in the virtual three-dimensional space continuously controlled by the virtual camera control means are recorded. And a camera work data generation unit that performs the camera work data generation unit that determines the position and orientation of the virtual camera when recording is started in response to a given recording restart instruction according to a given recording stop instruction. By adapting the position and the posture of the virtual camera at a given interruption timing of the camera work data before the stop, the camera work data after the recording restart instruction is made after the interruption timing of the camera work data before the stop. An electronic device having means for recording as subsequent camera work data.

第9の発明によれば、第1の発明と同様の効果が得られる電子機器を実現できる。 According to the ninth aspect, it is possible to realize an electronic device that achieves the same effects as the first aspect.

動画生成システムの構成例を示す図。The figure which shows the structural example of a moving image production system. ユーザ端末の構成例を示す正面図。The front view which shows the structural example of a user terminal. ユーザ端末における拡張現実を用いた被写体の表示制御に関して説明するための図。FIG. 6 is a diagram for explaining display control of a subject using augmented reality in a user terminal. 本実施形態で取得できるカメラワークの移動軌跡について説明するための図。The figure for demonstrating the movement track of the camerawork which can be acquired in this embodiment. カメラワークデータのデータ構成例を示す図。The figure which shows the data structural example of camerawork data. 張現実動画の生成に必要とされる情報・データのサーバシステムへアップロードについて説明するための図。The figure for demonstrating uploading to the server system of the information and data required for generation of a Zhang reality video. サーバシステムによる拡張現実画像の動画データの生成について説明するための図。The figure for demonstrating generation of the moving image data of an augmented reality image by a server system. 中断を余儀なくされるケースの例を示す図。The figure which shows the example of the case forced to suspend. カメラワークデータの記録の中断・一時停止と再開についての基本的な考え方を説明するための図。FIG. 6 is a diagram for explaining a basic concept of suspending/pausing and resuming recording of camera work data. 引き続くカメラワークデータの記録について説明するための図。The figure for demonstrating the recording of the camera work data which follows. カメラワークデータの記録の手動操作(記録停止操作)による中断について説明するための図。FIG. 6 is a diagram for explaining interruption of recording of camera work data by a manual operation (recording stop operation). カメラワークデータの記録の自動的な一時停止について説明するための図。The figure for demonstrating the automatic pause of recording of camera work data. 一時停止で中断されたカメラワークデータの記録の再開について説明するための図。The figure for demonstrating the resumption of the recording of the camera work data interrupted by the temporary stop. ユーザ端末の機能構成例を示す機能ブロック図。The functional block diagram which shows the function structural example of a user terminal. 端末記憶部が記憶するプログラムやデータの例を示す図。The figure which shows the example of the program and data which a terminal memory|storage part memorize|stores. ユーザ端末における処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a process in a user terminal. 記録中断再開処理の流れを説明するためのフローチャート。6 is a flowchart for explaining the flow of a recording interruption restart process. 図17よりつづくフローチャート。The flowchart continued from FIG.

以下、本発明の実施形態の一例を説明するが、本発明を適用可能な形態が以下の実施形態に限られないことは勿論である。 Hereinafter, an example of the embodiment of the present invention will be described, but it goes without saying that the mode to which the present invention is applicable is not limited to the following embodiment.

〔第1実施形態〕
図1は、動画生成システムの構成例を示す図である。動画生成システム1000は、拡張現実の動画を作成するサービスを提供するコンピュータシステムであって、ネットワーク9を介して相互にデータ通信が可能に接続されたサーバシステム1100と、ユーザ端末1500とを含む。
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example of a moving image generation system. The moving image generation system 1000 is a computer system that provides a service for creating an augmented reality moving image, and includes a server system 1100 and a user terminal 1500 that are connected to each other via a network 9 so as to be capable of data communication with each other.

ネットワーク9は、データ通信が可能な通信路を意味する。すなわち、ネットワーク9とは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLAN(Local Area Network)の他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。 The network 9 means a communication path capable of data communication. That is, the network 9 includes a dedicated line (dedicated cable) for direct connection, a LAN (Local Area Network) such as Ethernet (registered trademark), a communication network such as a telephone communication network, a cable network, and the Internet. The communication method may be wired or wireless.

サーバシステム1100は、例えば、キーボード1106と、タッチパネル1108と、ストレージ1140とを有し、本体装置には制御基板1150を搭載する。 The server system 1100 has, for example, a keyboard 1106, a touch panel 1108, and a storage 1140, and a control board 1150 is mounted on the main body device.

制御基板1150には、CPU(Central Processing Unit)1151やGPU(Graphics Processing Unit)、DSP(Digital Signal Processor)などの各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1152、通信装置1153が搭載されている。なお、制御基板1150の一部又は全部は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field-Programmable Gate Array)、SoC(System on a Chip)により実現するとしてもよい。 On the control board 1150, various microprocessors such as a CPU (Central Processing Unit) 1151, a GPU (Graphics Processing Unit) and a DSP (Digital Signal Processor), various IC memories 1152 such as VRAM, RAM and ROM, and a communication device 1153 are mounted. Has been done. Note that part or all of the control board 1150 may be realized by an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a SoC (System on a Chip).

そして、サーバシステム1100は、制御基板1150が所定のプログラムおよびデータに基づいて演算処理することにより、ユーザ端末1500で作成・記録されたカメラワークデータ(詳細後述)に基づいて拡張現実の画像(拡張現実画像)を生成し、拡張現実画像の動画データをユーザに提供する機能を実現する。 Then, in the server system 1100, the control board 1150 performs an arithmetic processing based on a predetermined program and data, so that an image of augmented reality (expanded reality) is generated based on camera work data (details will be described later) created and recorded in the user terminal 1500. Realization image) and provides the user with moving image data of the augmented reality image.

なお、図1では、ユーザ端末1500を1台のみ描いているが、実際のシステム運用においては、同時に複数のユーザ端末1500がサーバシステム1100にアクセス可能な構成であってもよい。 Although only one user terminal 1500 is shown in FIG. 1, a plurality of user terminals 1500 may simultaneously access the server system 1100 in actual system operation.

また、サーバシステム1100を、1台のサーバ装置であるかのように描いているが、複数の装置で実現する構成であってもよい。例えば、サーバシステム1100は各機能を分担する複数のブレードサーバを搭載して相互に内部バスを介してデータ通信可能に接続した構成であってもよい。また、サーバシステム1100を構成するハードウェアの設置場所は問わない。離れた場所に設置された独立した複数のサーバを、ネットワーク9を介してデータ通信させることで、全体としてサーバシステム1100として機能させる構成であってもよい。 Further, although the server system 1100 is drawn as if it is one server device, it may be configured by a plurality of devices. For example, the server system 1100 may have a configuration in which a plurality of blade servers that share respective functions are mounted and mutually connected via an internal bus so that data communication is possible. Further, the installation location of the hardware configuring the server system 1100 does not matter. A configuration may be adopted in which a plurality of independent servers installed at distant locations are caused to perform data communication via the network 9 and function as the server system 1100 as a whole.

ユーザ端末1500は、ユーザ2が、拡張現実画像の生成のためのデータ取得に使用するコンピュータシステムであって、ネットワーク9を介してサーバシステム1100にアクセスできる電子装置(電子機器)である。本実施形態のユーザ端末1500は、いわゆるスマートフォンと呼ばれる装置であるが、手持ち可能な携帯型のコンピュータシステムであれば、携帯型ゲーム装置や、タブレット型コンピュータ、などでもよい。 The user terminal 1500 is a computer system used by the user 2 to acquire data for generating an augmented reality image, and is an electronic device (electronic device) that can access the server system 1100 via the network 9. The user terminal 1500 of the present embodiment is a so-called smartphone device, but may be a portable game device, a tablet computer, or the like as long as it is a handheld portable computer system.

図2は、本実施形態におけるユーザ端末1500の構成例を示す正面図である。
ユーザ端末1500は、方向入力キー1502と、ボタンスイッチ1504と、画像表示デバイス兼接触位置入力デバイスとして機能するタッチパネル1506と、スピーカ1510と、内蔵バッテリー1509と、マイク1512と、カメラ1520と、制御基板1550と、コンピュータ読み出し可能な記憶媒体であるメモリカード1540からデータを読み書きできるメモリカード読取装置1542と、を備える。その他、図示されていない電源ボタン、音量調節ボタン等が設けられている。また、システム利用対価の支払いが可能なICカード型のクレジットカードやプリペイドカードに対して非接触にデータの読み書きが行えるICカード読取装置などを設けるとしてもよい。
FIG. 2 is a front view showing a configuration example of the user terminal 1500 according to this embodiment.
The user terminal 1500 includes a direction input key 1502, a button switch 1504, a touch panel 1506 that functions as an image display device and a contact position input device, a speaker 1510, a built-in battery 1509, a microphone 1512, a camera 1520, and a control board. 1550 and a memory card reading device 1542 capable of reading and writing data from a memory card 1540 which is a computer-readable storage medium. In addition, a power button, a volume control button, etc., which are not shown, are provided. Further, an IC card reader or the like that can read and write data in a contactless manner with respect to an IC card type credit card or a prepaid card that can pay the system usage fee may be provided.

カメラ1520は、ズーム倍率を変更可能なイメージセンサーユニットである。すなわち、カメラ1520は、CCD(Charge Coupled Device)などのイメージセンサ、ズーム機構、オートフォーカス機構、イメージセンサで撮影された信号から映像データを生成するLSI、などの各種デジタル動画撮影を可能とする構成要素を含む。 The camera 1520 is an image sensor unit whose zoom magnification can be changed. That is, the camera 1520 is capable of capturing various digital moving images such as an image sensor such as a CCD (Charge Coupled Device), a zoom mechanism, an autofocus mechanism, and an LSI that generates image data from a signal captured by the image sensor. Contains elements.

制御基板1550は、CPU1551やGPU,DSPなどの各種マイクロプロセッサ、VRAMやRAM,ROM等の各種ICメモリ1552、ネットワーク9に接続する携帯電話基地局や無線LAN基地局などと無線通信するための無線通信モジュール1553、測位モジュール1555、3軸加速度センサ1556、3軸ジャイロ1557、インターフェース回路1558、などを搭載する。 The control board 1550 is a radio for wirelessly communicating with a CPU 1551, various microprocessors such as GPU and DSP, various IC memories 1552 such as VRAM, RAM and ROM, mobile phone base stations and wireless LAN base stations connected to the network 9. A communication module 1553, a positioning module 1555, a triaxial acceleration sensor 1556, a triaxial gyro 1557, an interface circuit 1558, etc. are mounted.

測位モジュール1555は、ユーザ端末1500の位置を取得する。本実施形態では既存の測位システムを利用して現実空間における位置座標を取得することができる。すなわち、測位モジュール1555は、測位システムから提供される信号を受信して所定周期で(例えば、1秒毎に)測位情報を出力することで、ユーザ端末1500における測位機能を提供する。本実施形態では、測位システムとしてGPS(Global Positioning System)を利用する。よって測位モジュール1555は、既存の「GPSモジュール」や「GPS受信器」等を利用することができる。「測位情報」には、測位日時(例えば、協定世界時であるUTC:Coordinated Universal Time)、位置座標(緯度・経度・高度)、方位などが含まれる。利用する測位システムはGPSに限らず適宜選択可能である。例えば、測位モジュール1555は、携帯電話の無線基地局やWi−Fiネットワークの無線基地局などと無線接続する通信機と、方位センサとの構成で置き換えることができる。すなわち、接続中の無線基地局について予め測位されている位置情報を取得して、これをユーザ端末1500の現実空間における位置座標とするとしてもよい。 The positioning module 1555 acquires the position of the user terminal 1500. In the present embodiment, the position coordinates in the physical space can be acquired by using the existing positioning system. That is, the positioning module 1555 provides the positioning function in the user terminal 1500 by receiving the signal provided from the positioning system and outputting the positioning information at a predetermined cycle (for example, every one second). In this embodiment, a GPS (Global Positioning System) is used as a positioning system. Therefore, the positioning module 1555 can use an existing “GPS module”, “GPS receiver”, or the like. “Positioning information” includes positioning date and time (for example, UTC: Coordinated Universal Time), position coordinates (latitude/longitude/altitude), direction, and the like. The positioning system to be used is not limited to GPS and can be selected as appropriate. For example, the positioning module 1555 can be replaced with a configuration of a direction sensor and a communication device that wirelessly connects to a wireless base station of a mobile phone, a wireless base station of a Wi-Fi network, or the like. That is, it is also possible to acquire the position information that has been measured in advance for the connected wireless base station and use this as the position coordinates of the user terminal 1500 in the physical space.

インターフェース回路1558には、タッチパネル1506のドライバ回路、方向入力キー1502およびボタンスイッチ1504からの信号を受信する回路、スピーカ1510へ音声信号を出力する出力アンプ回路、マイク1512で集音した音声の信号を生成する入力信号生成回路、カメラ1520で撮影された画像の画像データを入力する回路、メモリカード読取装置1542への信号入出力回路、などが含まれている。 The interface circuit 1558 includes a driver circuit of the touch panel 1506, a circuit for receiving signals from the direction input keys 1502 and the button switches 1504, an output amplifier circuit for outputting a sound signal to the speaker 1510, and a sound signal collected by the microphone 1512. An input signal generation circuit for generating, a circuit for inputting image data of an image captured by the camera 1520, a signal input/output circuit for the memory card reader 1542, and the like are included.

制御基板1550に搭載されているこれらの要素は、バス回路などを介して電気的に接続され、データの読み書きや信号の送受信が可能に接続されている。なお、制御基板1550の一部又は全部をASICやFPGA、SoCにて構成してもよい。そして、制御基板1550は、ユーザ端末としての機能を実現させるためのプログラムや各種データをICメモリ1552に記憶する。 These elements mounted on the control board 1550 are electrically connected to each other via a bus circuit or the like, and are connected so that reading/writing of data and transmission/reception of signals can be performed. Note that part or all of the control board 1550 may be configured with an ASIC, FPGA, or SoC. Then, the control board 1550 stores a program and various data for realizing the function as the user terminal in the IC memory 1552.

なお、本実施形態では、ユーザ端末1500はプログラムや各種設定データをサーバシステム1100からダウンロードする構成としているが、別途入手したメモリカード1540などの記憶媒体から読み出す構成としてもよい。 In the present embodiment, the user terminal 1500 is configured to download the program and various setting data from the server system 1100, but the user terminal 1500 may be configured to read from a storage medium such as a memory card 1540 that is separately obtained.

図3は、ユーザ端末1500における拡張現実を用いた被写体の表示制御に関して説明するための図である。
ユーザ端末1500は、拡張現実を用いて、タッチパネル1506に被写体を表示させることができる。すなわち、現実空間にはARマーカ5が設置されており、ユーザ2は、このARマーカ5を撮影するようにユーザ端末1500の位置・姿勢と、カメラ1520のズームを調整する。カメラ1520で撮影された画像内のARマーカ5は画像認識処理されて、ユーザ端末1500とARマーカ5との相対位置や相対姿勢の算出処理に用いられる。ARマーカ5との相対位置や相対姿勢は、ユーザ端末1500の位置や姿勢の計測データとなる。
FIG. 3 is a diagram for explaining display control of a subject using augmented reality in the user terminal 1500.
The user terminal 1500 can display an object on the touch panel 1506 by using augmented reality. That is, the AR marker 5 is installed in the physical space, and the user 2 adjusts the position/orientation of the user terminal 1500 and the zoom of the camera 1520 so as to capture the AR marker 5. The AR marker 5 in the image captured by the camera 1520 is subjected to image recognition processing and is used for calculation processing of the relative position and relative attitude between the user terminal 1500 and the AR marker 5. The relative position and relative attitude with respect to the AR marker 5 become measurement data of the position and attitude of the user terminal 1500.

ユーザ端末1500は、算出された相対位置や相対姿勢と、3軸加速度センサ1556や3軸ジャイロ1557を用いて得られるユーザ端末1500の加速度および姿勢の計測データとから、カメラ1520の位置変化と姿勢変化とを常時取得することができる。また、カメラ1520のズーム操作により撮影画角(ズーム倍率とも言われる)の情報も周期的に取得することができる。以降では、相対位置や、相対姿勢、位置変化、姿勢変化、撮影画角と言ったいわゆる撮影条件を記述するパラメータ値、およびこれらを求めるための元になるARマーカ5の大きさや向き、姿勢データや加速度データ、ズーム制御値、センサの計測値などを総括して「実撮影条件」と呼ぶこととする。 The user terminal 1500 uses the calculated relative position and relative attitude and the measurement data of the acceleration and attitude of the user terminal 1500 obtained by using the triaxial acceleration sensor 1556 and the triaxial gyro 1557 to determine the position change and attitude of the camera 1520. Changes and can always be obtained. In addition, information on a shooting angle of view (also referred to as zoom magnification) can be periodically acquired by a zoom operation of the camera 1520. In the following, the relative position, the relative attitude, the position change, the attitude change, the parameter values that describe so-called shooting conditions such as the shooting angle of view, and the size and orientation of the AR marker 5 that is the basis for obtaining these, and the attitude data. The acceleration data, the zoom control value, the measurement value of the sensor, and the like are collectively referred to as “actual shooting conditions”.

実撮影条件を取得する一方、ユーザ端末1500は、仮想3次元空間に、被写体オブジェクト4を配置してその動作を制御することができる。本実施形態では、被写体オブジェクト4は、人の形態を模した仮想キャラクタであり、カメラ1520で撮影された撮影画像に基づくAR(Augmented Reality)キャラクタである。ユーザ端末1500は、予め用意された所与の楽曲データと、当該楽曲データの楽曲と同期するモーションを実現するための所定のモーションデータと、を用いて、被写体オブジェクト4が楽曲を歌いながら踊るように動作制御する。 While acquiring the actual shooting condition, the user terminal 1500 can arrange the subject object 4 in the virtual three-dimensional space and control the operation thereof. In the present embodiment, the subject object 4 is a virtual character that imitates a human form, and is an AR (Augmented Reality) character based on a captured image captured by the camera 1520. The user terminal 1500 uses the given music data prepared in advance and the predetermined motion data for realizing the motion synchronized with the music of the music data so that the subject object 4 dances while singing the music. Motion control.

仮想3次元空間には、カメラ1520の実撮影条件のパラメータ値に連動し、その撮影位置・撮影姿勢・撮影画角が制御される仮想カメラC1が配置される。ユーザ端末1500は、仮想カメラC1で撮影した仮想3次元空間の画像すなわち仮想空間画像90を生成して、これを現実空間の画像(現実空間画像92)に重畳表示させる。タッチパネル1506に、拡張現実の画像(拡張現実画像94)を、ライブ画像30(カメラ1520のファインダー画像に相当)として表示させる。 In the virtual three-dimensional space, a virtual camera C1 that is linked to the parameter value of the actual shooting condition of the camera 1520 and whose shooting position, shooting posture, and shooting angle of view are controlled is arranged. The user terminal 1500 generates an image of a virtual three-dimensional space captured by the virtual camera C1, that is, a virtual space image 90, and superimposes the generated image on the image of the real space (real space image 92). The touch panel 1506 displays the augmented reality image (augmented reality image 94) as the live image 30 (corresponding to the finder image of the camera 1520).

ユーザ2は、ユーザ端末1500へ所定の記録開始操作を入力してから、タッチパネル1506に表示される画像をファインダー画像に見立てて、被写体オブジェクト4が楽曲を歌いながら踊る様子を見ながら、携帯型ビデオカメラで撮影する要領で撮影操作する。撮影操作には、ユーザ端末1500を現実空間で移動させ、時に姿勢を変え、時にズーム倍率を変える操作が含まれる。つまり、カメラワークをつける操作である。 The user 2 inputs a predetermined recording start operation to the user terminal 1500, then uses the image displayed on the touch panel 1506 as a finder image, watching the subject object 4 dancing while singing a song, while watching the portable video. Operate the camera as you would with a camera. The shooting operation includes an operation of moving the user terminal 1500 in the physical space, sometimes changing the posture, and sometimes changing the zoom magnification. In other words, it is an operation to attach camera work.

図4に示すように、ユーザ端末1500を使ってカメラワークをつけると、それにより生じる移動軌跡L1は、人が携帯型ビデオカメラを手に持って撮影したときに生じる手ブレ等に相当する「ゆらぎ」を含む。 As shown in FIG. 4, when camera work is applied using the user terminal 1500, a movement locus L1 caused by the camera work corresponds to camera shake or the like that occurs when a person holds a portable video camera in his/her hand and takes a picture. Including "fluctuation".

そして、ユーザ端末1500は、ユーザ2による所定の記録開始操作の入力を検出すると、例えば、図5に示すようなカメラワークデータ550の記録を開始する。
カメラワークデータ550は、固有の撮影ID551と、撮影開始日時553と、撮影終了日時555と、実撮影条件データ560と、仮想撮影条件データ570と、カメラ1520で撮影されていた現実空間画像92を録画した現実画像録画データ580と、仮想空間画像90を録画した仮想空間画像録画データ582と、を含む。勿論、これら以外のデータも適宜含めることができるし、これらのうちの幾つかを適宜省略することもできる。
Then, when the user terminal 1500 detects the input of the predetermined recording start operation by the user 2, the user terminal 1500 starts recording the camera work data 550 as shown in FIG. 5, for example.
The camera work data 550 includes a unique shooting ID 551, a shooting start date/time 553, a shooting end date/time 555, real shooting condition data 560, virtual shooting condition data 570, and a physical space image 92 shot by the camera 1520. The recorded real image recording data 580 and the virtual space image recording data 582 recording the virtual space image 90 are included. Of course, data other than these may be included as appropriate, and some of these may be omitted as appropriate.

実撮影条件データ560は、例えば、
1)ARマーカ5に基づいて算出された相対姿勢、および/または3軸ジャイロ1557による計測データ、を時系列に格納した実カメラ姿勢データ561と、
2)ARマーカ5に基づいて算出された撮影位置変化から求められる加速度、および/または3軸加速度センサ1556による計測データ、を時系列に格納した実カメラ加速度データ563と、
3)カメラ1520のズーム倍率(撮影画角)或いはズーム倍率の制御パラメータ値を時系列に格納した実ズーム制御データ565と、
4)ARマーカ5に基づいて算出されたカメラ1520の相対位置、および/または3軸加速度センサ1556による計測データの積算から求められる撮影位置、を時系列にトレースした移動軌跡L1を記述する実移動軌跡データ567と、
を含む。
The actual shooting condition data 560 is, for example,
1) Real camera posture data 561 in which the relative posture calculated based on the AR marker 5 and/or the measurement data by the 3-axis gyro 1557 are stored in time series,
2) Real camera acceleration data 563 in which the acceleration obtained from the change in the shooting position calculated based on the AR marker 5 and/or the measurement data by the triaxial acceleration sensor 1556 are stored in time series,
3) Actual zoom control data 565 in which the zoom magnification (shooting angle of view) of the camera 1520 or the control parameter value of the zoom magnification is stored in time series,
4) Actual movement describing a movement locus L1 in which a relative position of the camera 1520 calculated based on the AR marker 5 and/or a photographing position obtained by integrating measurement data by the triaxial acceleration sensor 1556 are traced in time series. Trajectory data 567,
including.

仮想撮影条件データ570は、例えば、
1)実カメラ姿勢データ561から求められる仮想カメラC1の撮影姿勢を時系列に格納した仮想カメラ姿勢データ571と、
2)実カメラ加速度データ563から求められる仮想カメラC1に生じている加速度を時系列に格納した仮想カメラ加速度データ573と、
3)実ズーム制御データ565から求められる仮想カメラC1の撮影画角(またはズーム倍率)を時系列に格納した仮想カメラ撮影画角データ575と、
4)実移動軌跡データ567に基づいて移動軌跡L1を仮想3次空間内で再現した仮想カメラC1の移動軌跡Lcを記述する仮想カメラ移動軌跡データ577と、
を含む。
The virtual shooting condition data 570 is, for example,
1) Virtual camera attitude data 571 that stores the shooting attitude of the virtual camera C1 obtained from the actual camera attitude data 561 in time series,
2) Virtual camera acceleration data 573 in which the acceleration occurring in the virtual camera C1 obtained from the actual camera acceleration data 563 is stored in time series,
3) Virtual camera shooting angle-of-view data 575 in which the shooting angle of view (or zoom magnification) of the virtual camera C1 obtained from the actual zoom control data 565 is stored in time series,
4) Virtual camera movement locus data 577 describing the movement locus Lc of the virtual camera C1 that reproduces the movement locus L1 in the virtual tertiary space based on the actual movement locus data 567,
including.

なお、実撮影条件データ560のタイムコードすなわち時間軸と、仮想撮影条件データ570のタイムコードすなわち時間軸とは、楽曲の再生や被写体オブジェクト4の動作制御のタイムコードと同期させるように対応付けて記録されるものとする。また、実撮影条件データ560と仮想撮影条件データ570は、何れか一方を省略し、必要に応じて残された側から省略された側の撮影条件データを逆算によって求める構成としてもよい。 The time code, that is, the time axis of the actual shooting condition data 560 and the time code, that is, the time axis of the virtual shooting condition data 570 are associated with each other so as to be synchronized with the time code for playing the music or controlling the motion of the subject object 4. It shall be recorded. Further, one of the actual shooting condition data 560 and the virtual shooting condition data 570 may be omitted, and the shooting condition data from the remaining side to the omitted side may be obtained by back calculation as necessary.

ユーザ2が所定の記録停止操作を入力すると、ユーザ端末1500はカメラワークデータ550の記録を停止し、図6に示すように、拡張現実動画の生成に必要とされる情報やデータをサーバシステム1100へアップロードする。具体的には、例えば、被写体オブジェクト4のモデルデータ510、モーションデータ512、楽曲データ514、カメラワークデータ550、をアップロードする。勿論、これら以外のデータも適宜アップロードするとしてもよい。例えば、仮想3次元空間内に、被写体オブジェクト4が歌や踊りを披露するための舞台装置などの背景オブジェクトを用意した場合には、そのモデルデータやモーションデータなど、表示と動作を実現するためのデータも、アップロードする。勿論、これら以外のデータも適宜アップロードするとしてもよい。 When the user 2 inputs a predetermined recording stop operation, the user terminal 1500 stops the recording of the camera work data 550, and as shown in FIG. 6, the server system 1100 stores the information and data necessary for generating the augmented reality moving image. Upload to. Specifically, for example, the model data 510 of the subject object 4, the motion data 512, the music data 514, and the camera work data 550 are uploaded. Of course, data other than these may be uploaded as appropriate. For example, when a background object such as a stage device for the subject object 4 to perform a song or dance is prepared in the virtual three-dimensional space, the model data and motion data thereof are used to realize display and operation. Data is also uploaded. Of course, data other than these may be uploaded as appropriate.

なお、モデルデータ510や、モーションデータ512、楽曲データ514、について予めサーバシステム1100に記録されているデータを事前にユーザ端末1500にダウンロードしてカメラワークデータ550の記録時に使用する場合は、これらのデータのアップロードは省略できる。また、モデルデータ510や、モーションデータ512、楽曲データ514は、ユーザ2の自作・他作は問わない。 When the model data 510, the motion data 512, and the music data 514 previously recorded in the server system 1100 are downloaded to the user terminal 1500 and used at the time of recording the camera work data 550, these data are recorded. Data upload can be omitted. The model data 510, the motion data 512, and the music data 514 may be the user 2's own work or another work.

図7は、サーバシステム1100による拡張現実の動画の生成について説明するための図である。サーバシステム1100は、被写体オブジェクト4のモデルデータ510、モーションデータ512、楽曲データ514、カメラワークデータ550、がアップロードされると、それらのデータに基づいて、仮想3次元空間に被写体オブジェクト4や背景オブジェクトを配置し、楽曲の再生と同期させてその動作を制御する。更に、楽曲の再生と同期させて、アップロードされたカメラワークデータ550に基づいて仮想カメラC2を制御する。 FIG. 7 is a diagram for explaining generation of an augmented reality moving image by the server system 1100. When the server system 1100 uploads the model data 510, the motion data 512, the music data 514, and the camera work data 550 of the subject object 4, the subject object 4 and the background object are placed in the virtual three-dimensional space based on those data. Are arranged and their operations are controlled in synchronization with the reproduction of music. Further, the virtual camera C2 is controlled based on the uploaded camera work data 550 in synchronization with the reproduction of the music.

そして、サーバシステム1100は、仮想カメラC2で撮影された仮想3次元空間内の画像(仮想現実画像)を生成して、アップロードされたカメラワークデータ550に含まれる現実画像録画データ580に重畳表示させて、拡張現実の動画のデータ(拡張現実動画データ584)を作成する。 Then, the server system 1100 generates an image (virtual reality image) in the virtual three-dimensional space captured by the virtual camera C2, and superimposes it on the real image recording data 580 included in the uploaded camera work data 550. Then, the data of the augmented reality moving image (augmented reality moving image data 584) is created.

こうして作成された拡張現実の動画では、人が携帯型ビデオカメラを操作したときに生じる「ゆらぎ」による画面の揺れなどが再現されており、「ユーザ自らがビデオカメラを手に持って撮影した」リアリティのある拡張現実の動画となっている。 In the augmented reality video created in this way, screen fluctuations due to "fluctuations" that occur when a person operates a portable video camera are reproduced, and "the user himself took the video camera in his hand to shoot" It is a video of augmented reality with reality.

さて、カメラワークのつけかたによっては、中断を余儀なくされるケースがあるが、本実施形態ではそうしたケースにも対応する。
例えば、図8は、中断を余儀なくされるケースの例を示す図である。ユーザ2が撮影操作を行う際、ユーザ2の背丈や被写体オブジェクト4との大きさの関係によっては、連続的に所望するカメラアングルを確保できなくなる。図8の例では、ユーザ2は、被写体オブジェクト4を正面から撮影し始め、被写体オブジェクト4の左方に回り込みつつ、仰ぎ見るような煽り撮影をしようとしている。しかし、現実世界では地面(床面)があるために、ユーザ端末1500を下げる位置には限界が生じる。当然、ユーザ2も窮屈な姿勢をよぎなくされ、身体的な限界により、望ましいアングルを安定的に得るのが難しくなる。こうしたケースでは、カメラワークデータ550の記録をそこで終了せざるを得なくなる。図中の移動軌跡L1はそうした限界内で実現可能なカメラワークの軌跡である。ユーザ2は、移動軌跡L2で撮影したいと思っても、破線部分が丁度床面の下に潜ることになり実現できなくなっている。
There are cases in which interruption is inevitable depending on how the camera work is attached, but this embodiment also accommodates such cases.
For example, FIG. 8 is a diagram illustrating an example of a case in which interruption is forced. When the user 2 performs a shooting operation, depending on the height of the user 2 and the size of the subject object 4, the desired camera angle cannot be continuously secured. In the example of FIG. 8, the user 2 starts to photograph the subject object 4 from the front, and tries to perform leaning photography such as looking up while turning around to the left of the subject object 4. However, since there is the ground (floor surface) in the real world, there is a limit to the position where the user terminal 1500 is lowered. As a matter of course, the user 2 is also constrained from a cramped posture, and it becomes difficult to stably obtain a desired angle due to physical limitations. In such a case, recording of the camera work data 550 is forced to end there. A movement locus L1 in the figure is a locus of camera work that can be realized within such limits. Even if the user 2 wants to take a picture on the movement locus L2, the broken line portion just dives below the floor surface and cannot realize it.

そこで、本実施形態ではカメラワークデータ550の記録の中断(一時停止)と再開とを可能にしている。
図9は、カメラワークデータ550の記録の中断(一時停止)と再開についての基本的な考え方を説明するための図である。
Therefore, in the present embodiment, the recording of the camera work data 550 can be suspended (temporarily stopped) and restarted.
FIG. 9 is a diagram for explaining the basic idea regarding the interruption (temporary stop) and the restart of the recording of the camera work data 550.

ユーザ端末1500は、カメラワークデータ550の記録制御に係り、所与の記録停止指示に応じた記録の停止と、所与の記録再開指示に応じた記録の開始とを行うことでカメラワークデータ550の中断および再開を制御する。ユーザ2の立場から述べると、カメラワークの中断を余儀なくされると、ユーザ2はそのカメラワークデータ550の記録を中断させ、ユーザ端末1500の位置や姿勢を、再開時に想定しているカメラワークの始点として適当な位置と姿勢に調整し、カメラワークデータ550の記録を再開させることができる。 The user terminal 1500 is involved in recording control of the camera work data 550, and stops the recording in response to a given recording stop instruction and starts recording in response to a given recording restart instruction. Control the suspension and resumption of the. From the standpoint of the user 2, when the camerawork is forced to be interrupted, the user 2 interrupts the recording of the camerawork data 550, and the position and the posture of the user terminal 1500 are changed to those of the camerawork assumed at the time of restart. It is possible to resume the recording of the camera work data 550 by adjusting the position and the posture as appropriate as the starting point.

図10は、停止前のカメラワークデータ550に設定された中断タイミング以降に引き続くカメラワークデータの記録について説明するための図である。
ユーザ端末1500は、記録停止指示に応じた記録の停止と、記録再開指示に応じた記録の開始とを行うことでカメラワークデータの中断および再開を制御する。そして、中断および再開を行うにあたり、ユーザ端末1500は、中断タイミングにおける仮想カメラC1の仮想撮影条件(図5の仮想撮影条件データ570を参照)に対して、記録再開指示に応じて記録を開始した(再開した)際の仮想カメラC1の仮想撮影条件を適合させるように補正処理する。そして、停止前のカメラワークデータの中断タイミング以降に引き続くカメラワークデータを記録する。
FIG. 10 is a diagram for explaining the recording of the camera work data that continues after the interruption timing set in the camera work data 550 before the stop.
The user terminal 1500 controls interruption and resumption of camera work data by stopping recording according to a recording stop instruction and starting recording according to a recording restart instruction. Then, in performing the interruption and the resumption, the user terminal 1500 starts recording in response to the recording resumption instruction with respect to the virtual photographing condition of the virtual camera C1 at the interruption timing (see the virtual photographing condition data 570 in FIG. 5). Correction processing is performed so as to match the virtual imaging conditions of the virtual camera C1 when (restarted). Then, the camera work data continuing after the interruption timing of the camera work data before the stop is recorded.

より具体的には、ユーザ端末1500は、再開後のカメラワークデータ550を記録するにあたり、中断前のカメラワークの移動軌跡Lc1の中断タイミングにおける仮想撮影条件と、記録再開指示に応じて記録を開始した後のカメラワークの移動軌跡Lc2の開始タイミングにおける仮想撮影条件とを、一致させるように補正処理しながら、引き続くカメラワークデータを記録する。そして、中断前のカメラワークデータ550の最後の部分について部分的な変更、削除或いは追加を施した停止前のカメラワークデータ550と、記録再開指示に応じて記録を開始した後のカメラワークデータ550(引き続くカメラワークデータ)とを接続して一連のカメラワークデータ550として記録する制御を行う。 More specifically, when recording the camerawork data 550 after resumption, the user terminal 1500 starts recording in response to the virtual photographing condition at the interruption timing of the movement locus Lc1 of the camerawork before interruption and the recording restart instruction. Subsequent camera work data is recorded while performing a correction process so as to match the virtual shooting condition at the start timing of the movement locus Lc2 of the camera work after that. Then, the camera work data 550 before the stop, in which the last part of the camera work data 550 before the interruption is partially changed, deleted, or added, and the camera work data 550 after the recording is started according to the recording restart instruction. (Continued camera work data) is connected to perform control to record a series of camera work data 550.

補正処理の方法は、適宜設定可能である。
例えば、位置に着目すれば、本実施形態では、記録再開指示に応じて記録を開始した開始タイミングにおけるカメラワークの始点位置Psを、中断前のカメラワークの移動軌跡L1の中断タイミングにおける中断タイミング位置Peへ変更する座標関数(例えば、変換行列)を生成し、この変換行列を適用して変換する。別の補正処理の方法としては中断タイミング位置Peから移動軌跡L2の始点位置Psへの位置ズレのベクトルを求め、このベクトルの向きを逆向きとしたベクトルを位置座標に適用して補正するとしてもよい。
The method of correction processing can be set as appropriate.
For example, focusing on the position, in the present embodiment, the start point position Ps of the camera work at the start timing when recording is started in response to the recording restart instruction is defined as the interruption timing position at the interruption timing of the movement locus L1 of the camera work before the interruption. A coordinate function (for example, a conversion matrix) that changes to Pe is generated, and this conversion matrix is applied to perform conversion. As another correction processing method, a vector of the positional deviation from the interruption timing position Pe to the starting point position Ps of the movement locus L2 is obtained, and a vector in which the direction of this vector is reversed is applied to the position coordinates for correction. Good.

こうした補正処理は、撮影条件に含まれる姿勢やズームについても同様に行われる。すなわち、中断タイミングにおける姿勢を、記録再開指示に応じて記録を開始した開始タイミングにおける姿勢と一致させるように補正処理しながら、再開後のカメラワークデータ550の記録を制御する。また、中断タイミングにおけるズーム倍率(または仮想カメラの撮影画角)を、記録再開指示に応じて記録を開始した開始タイミングにおけるズーム倍率と一致させるように補正処理しながら、再開後のカメラワークデータ550の記録を制御する。 Such correction processing is similarly performed for the posture and zoom included in the shooting conditions. That is, the recording of the camera work data 550 after the restart is controlled while performing the correction processing so that the attitude at the interruption timing matches the attitude at the start timing when the recording is started in response to the recording restart instruction. Further, the camera work data 550 after the restart is corrected while performing the correction processing so that the zoom ratio at the interruption timing (or the shooting angle of view of the virtual camera) matches the zoom ratio at the start timing when recording is started in response to the recording restart instruction. Control the recording of.

こうした補正を行うことで、ユーザ2が窮屈な姿勢を余儀なくされ、身体的な限界により、望ましいアングルを安定的に得るのが難しくなるケース(図8参照)で、撮影の継目が発生することを意識することなく、撮影の中断と再開が可能になる。そして、中断時のユーザ端末1500の位置と、再開時のユーザ端末1500の位置とに差異があったとしても、中断前後で位置飛びが生じることのない、一繋がりのカメラワークデータ550を記録できる。よって、ユーザ2は、再開後、無理な姿勢をとることなく撮影操作の続きを行うことができる。 By performing such a correction, the user 2 is forced to have a cramped posture, and it is difficult to stably obtain a desired angle due to physical limitations (see FIG. 8 ). It is possible to suspend and resume shooting without being aware of it. Then, even if there is a difference between the position of the user terminal 1500 at the time of interruption and the position of the user terminal 1500 at the time of resumption, it is possible to record a series of camera work data 550 that does not cause a position jump before and after the interruption. .. Therefore, the user 2 can continue the shooting operation without taking an uncomfortable posture after restarting.

次に、本実施形態ではカメラワークデータ550の記録の中断と再開に係る手続きについて詳しく説明する。
図11は、カメラワークデータ550の記録の手動操作(記録停止操作)による中断について説明するための図である。ユーザ端末1500は、カメラワークデータ550の記録中、タッチパネル1506にて撮影画面W11を表示する。
Next, in the present embodiment, a procedure for suspending and resuming recording of the camera work data 550 will be described in detail.
FIG. 11 is a diagram for explaining interruption of recording of the camera work data 550 by a manual operation (recording stop operation). The user terminal 1500 displays the shooting screen W11 on the touch panel 1506 while recording the camera work data 550.

撮影画面W11には、
1)撮影中の画像を表示するモニタ表示10と、
2)タイムコード11と、
3)撮影や記録の現在の状態を示す状態通知表示12と、
4)新規の記録開始操作を入力するための記録開始操作アイコン13と、
5)カメラワークデータ550の記録を一時的に中断・停止させる記録停止操作を入力するための記録停止操作アイコン14と、
6)一時停止されていたカメラワークデータ550の記録を再び開始する記録再開操作を入力するための記録再開操作アイコン15と、
7)記録の終了に相当する記録終了操作を入力するための記録終了操作アイコン16と、
を含む。記録終了操作は、記録を停止させる第2の記録停止操作ということができる。
On the shooting screen W11,
1) A monitor display 10 for displaying an image being taken,
2) Time code 11,
3) Status notification display 12 showing the current status of shooting and recording,
4) Recording start operation icon 13 for inputting a new recording start operation,
5) A recording stop operation icon 14 for inputting a recording stop operation for temporarily suspending/stopping the recording of the camera work data 550,
6) A recording restart operation icon 15 for inputting a recording restart operation for restarting the recording of the temporarily stopped camera work data 550,
7) A recording end operation icon 16 for inputting a recording end operation corresponding to the end of recording,
including. The recording end operation can be said to be a second recording stop operation for stopping recording.

つまり、ユーザ2は、記録停止操作アイコン14と記録再開操作アイコン15とを適宜にタッチ操作で選択することで、任意のタイミングでカメラワークデータ550の記録を中断したり再開したりすることができる。 That is, the user 2 can interrupt or restart the recording of the camera work data 550 at an arbitrary timing by appropriately selecting the recording stop operation icon 14 and the recording restart operation icon 15 by a touch operation. ..

図12は、カメラワークデータ550の記録の自動的な一時停止について説明するための図である。カメラワークデータ550の記録中、ユーザ端末1500は3軸加速度センサ1556で計測される加速度や、3軸ジャイロ1557で計測される姿勢を常時監視している。そして、ユーザ端末1500は、加速度が所定の位置不適変化条件を満たす場合と、姿勢が所定の姿勢不適変化条件を満たす場合との、何れかが満たされた場合に、自動的に記録を一時停止し、自動記録停止通知19をタッチパネル1506に表示することでユーザ2に通知する。 FIG. 12 is a diagram for explaining the automatic pause of the recording of the camera work data 550. During recording of the camera work data 550, the user terminal 1500 constantly monitors the acceleration measured by the triaxial acceleration sensor 1556 and the posture measured by the triaxial gyro 1557. Then, the user terminal 1500 automatically pauses recording when either the acceleration satisfies a predetermined position inappropriate change condition or the posture satisfies a predetermined posture inappropriate change condition. Then, the user 2 is notified by displaying the automatic recording stop notification 19 on the touch panel 1506.

ここで言う「位置不適変化条件」とは、映像表現の演出としても度を超えるような過度な画面ブレが生じたようなカメラ1520の位置変化を、3軸加速度センサ1556で計測される加速度変化の条件として記述したものである。 The “positional inappropriate change condition” mentioned here means a change in position of the camera 1520 that causes excessive screen blur even when it is used as an effect of image expression, and a change in acceleration measured by the triaxial acceleration sensor 1556. Is described as a condition of.

同じように、ここで言う「姿勢不適変化条件」とは、映像表現の演出としても度を超えるような過度な画面ブレが生じたようなカメラ1520の姿勢変化を3軸ジャイロ1557で計測される姿勢変化の条件として記述したものである。 Similarly, the “posture inappropriate change condition” is a posture change of the camera 1520, which causes excessive screen blur even when it is used as a visual representation, and is measured by the 3-axis gyro 1557. It is described as a condition of posture change.

言い換えると、これらの条件は、カメラを急激に動かし過ぎた状態、或いは、カメラが急激に動いてしまった状態、を定義するものである。ユーザ端末1500が、これらの条件に基づいて自動的な一時停止制御を行う。この結果、ユーザ2が記録停止操作アイコン14を操作することなく、ユーザ2が意図的にユーザ端末1500の位置を急激に変化させるような動作をしたり、ユーザ端末1500を急に倒すような動作をするだけでカメラワークデータ550の記録を一時停止できるため、操作性が向上する。また、ユーザ2が誤ってユーザ端末1500を落下させたり、撮影に夢中でユーザ2が躓くといったハプニングが起こった場合に、自動的に一時停止されるので、ハプニング後にも無駄な記録が続くことを防止できる。 In other words, these conditions define a state in which the camera has moved too rapidly or a state in which the camera has moved abruptly. The user terminal 1500 automatically performs temporary stop control based on these conditions. As a result, the user 2 intentionally changes the position of the user terminal 1500 abruptly or operates the user terminal 1500 suddenly without the user 2 operating the recording stop operation icon 14. Since the recording of the camera work data 550 can be temporarily stopped only by performing, the operability is improved. In addition, if the user 2 accidentally drops the user terminal 1500 or if a happening occurs such that the user 2 is overwhelmed by shooting and the user 2 stumbles, it is automatically paused, so that useless recording continues even after the happening. It can be prevented.

図13は、一時停止で中断されたカメラワークデータ550の記録の再開に係り、記録を再開する再開タイミングの設定について説明するための図である。一時停止により記録が中断された後の撮影画面W13には、再開タイミングの操作入力を受け付けるためのシークバー20が追加表示される。これにより、ユーザ2は、シークバー20のスライダー21の位置をずらして再開タイミングを指定する操作入力ができる。ここで、中断前のプロセスである一時停止と、中断後のプロセスである再開とに分けて考えると、再開のプロセスにとっては、再開タイミングは中断タイミングと言えるものである。そこで、一時停止がなされた後、再開するプロセスにおける再開タイミングのことを、適宜、中断タイミングとも述べることとする。 FIG. 13 is a diagram for explaining the setting of the restart timing for restarting the recording regarding the restart of the recording of the camera work data 550 which is interrupted by the temporary stop. A seek bar 20 for additionally accepting an operation input of a restart timing is additionally displayed on the shooting screen W13 after the recording is interrupted due to the temporary stop. As a result, the user 2 can perform an operation input for shifting the position of the slider 21 of the seek bar 20 and designating the restart timing. Here, if the process before suspension is temporarily divided into the process of suspending and the process after the process of suspending is resumed, the restart timing can be said to be the suspend timing for the restart process. Therefore, the resumption timing in the process of resuming after the temporary suspension is also referred to as interruption timing.

そして、シークバー20の表示と指定操作入力の受付に係り、ユーザ端末1500は、再開タイミング(中断タイミング)の候補タイミングを自動選択し、当該候補タイミングにおける仮想撮影条件(仮想カメラC1の位置や姿勢など)で撮影された仮想3次元空間の画像をユーザ2に提示する制御を行う。 Then, in response to the display of the seek bar 20 and the reception of the designated operation input, the user terminal 1500 automatically selects the candidate timing of the restart timing (interruption timing), and the virtual photographing condition (the position and the posture of the virtual camera C1 etc.) at the candidate timing. The control of presenting the image of the virtual three-dimensional space photographed in () to the user 2 is performed.

具体的には、ユーザ端末1500は、複数の候補タイミングを自動選択し、それぞれの候補タイミングに、再開位置の指定操作入力の目安となるサムネイル22(22a,22b,…)を表示する。サムネイル22は、それが指し示すシークバー20の位置におけるタイミングの仮想撮影条件(仮想カメラC1の位置や姿勢など)で撮影された仮想3次元空間の画像の縮小画像である。サムネイル22は、複数用意される。その1つは、再開タイミング(中断タイミング)の初期設定として、ユーザ端末1500が停止タイミングから所定時間遡及したタイミングを自動判別したサムネイル22aである。それ以外の1つまたは複数のサムネイル22b、22cは、記録停止指示による停止前のカメラワークデータ550の終端タイミングから所定時間間隔(Nフレーム前、Mフレーム前)で決定されたタイミングにおける拡張現実画像の縮小画像である。 Specifically, the user terminal 1500 automatically selects a plurality of candidate timings, and displays the thumbnails 22 (22a, 22b,...) Which serve as a guide for the operation of designating the restart position at each candidate timing. The thumbnail 22 is a reduced image of an image in the virtual three-dimensional space captured under the virtual imaging condition (position and orientation of the virtual camera C1) at the timing of the seek bar 20 pointed to by the thumbnail 22. A plurality of thumbnails 22 are prepared. One of them is a thumbnail 22a that automatically determines the timing when the user terminal 1500 goes back a predetermined time from the stop timing as the initial setting of the restart timing (interruption timing). The one or more thumbnails 22b and 22c other than the thumbnails are augmented reality images at a timing determined at a predetermined time interval (N frame before, M frame before) from the end timing of the camera work data 550 before the stop due to the recording stop instruction. Is a reduced image of.

ここで言う「遡及」の所定時間は、位置変化不適条件や姿勢変化不適条件が満たされるような事象が起きた場合に、撮影された画像が過度にブレて使えない画像になっていると想定される時間とする。本実施形態では、不適変化条件を満たしたこと(位置変化不適条件または姿勢変化不適条件の何れかを満たしたこと)が検出される直前のタイミングとする。言い換えると、ユーザ端末1500が、ユーザ端末1500の位置の変化または姿勢の変化が所与の安定条件を満たさなくなったタイミングを自動判別して決定する。その他、「遡及」の所定時間を、直近過去に記録されたカメラワークデータ550の終端タイミングから所定時間前のタイミング(例えば、1秒間)としてもよい。この自動的な遡及によって、シークバー20の初期位置が、撮影された画像が過度にブレて使えない画像になっている直前の想定位置となるため、ユーザにとっては記録を再開するのに適当なタイミングを探す手間が省ける。 It is assumed that the predetermined time of "retrogression" referred to here is that the captured image is excessively blurred and unusable when an event that satisfies the position change inadequacy condition or the posture change inadequacy condition occurs. It is time to be done. In the present embodiment, the timing immediately before the detection that the inappropriate change condition is satisfied (either the position change inappropriate condition or the posture change inappropriate condition is satisfied) is detected. In other words, the user terminal 1500 automatically determines and determines the timing when the change in the position or the change in the posture of the user terminal 1500 does not satisfy a given stability condition. Alternatively, the “retroactive” predetermined time may be a timing (for example, 1 second) that is a predetermined time before the end timing of the camera work data 550 recorded in the latest past. Due to this automatic retroactive movement, the initial position of the seek bar 20 becomes an assumed position immediately before the captured image becomes an image that is excessively blurred and cannot be used, so that the user can select an appropriate timing to restart recording. You can save the trouble of searching.

なお、本実施形態では、ユーザ端末1500は、カメラワークデータ550の記録とともに、モニタ表示10で表示されている(図11参照)拡張現実画像を録画している。サムネイル22は、録画された拡張現実画像から、サムネイル22(22a,22b,…)それぞれが対応するタイミングを抽出・縮小して作成する。勿論、カメラワークデータ550から、サムネイル22(22a,22b,…)それぞれが対応するタイミングの仮想撮影条件を読み出して、再度、仮想空間画像を生成し、これを縮小して用いるとしてもよい。 In the present embodiment, the user terminal 1500 records the camera work data 550 and also records the augmented reality image displayed on the monitor display 10 (see FIG. 11 ). The thumbnail 22 is created by extracting and reducing the timing corresponding to each thumbnail 22 (22a, 22b,...) From the recorded augmented reality image. Of course, it is also possible to read the virtual imaging conditions at the timings corresponding to the thumbnails 22 (22a, 22b,...) From the camera work data 550, generate the virtual space image again, and reduce and use it.

図14は、本実施形態におけるユーザ端末1500の機能構成例を示す機能ブロック図である。ユーザ端末1500は、操作入力部100と、測位部102と、加速度計測部106と、姿勢計測部108と、音声入力部110と、撮影部120と、端末処理部200と、音出力部390と、画像表示部392と、通信部394と、端末記憶部500とを備える。 FIG. 14 is a functional block diagram showing a functional configuration example of the user terminal 1500 in this embodiment. The user terminal 1500 includes an operation input unit 100, a positioning unit 102, an acceleration measuring unit 106, a posture measuring unit 108, a voice input unit 110, an image capturing unit 120, a terminal processing unit 200, and a sound output unit 390. The image display unit 392, the communication unit 394, and the terminal storage unit 500.

操作入力部100は、プレーヤによってなされた各種の操作入力に応じた操作入力信号を端末処理部200に出力する。例えば、プッシュスイッチや、ジョイスティック、タッチパッド、トラックボール、加速度センサ、ジャイロ、CCDモジュール、などによって実現できる。図2の方向入力キー1502や、ボタンスイッチ1504、タッチパネル1506、がこれに該当する。 The operation input unit 100 outputs an operation input signal corresponding to various operation inputs made by the player to the terminal processing unit 200. For example, it can be realized by a push switch, a joystick, a touch pad, a trackball, an acceleration sensor, a gyro, a CCD module, or the like. The direction input key 1502, the button switch 1504, and the touch panel 1506 in FIG. 2 correspond to this.

測位部102は、ユーザ端末1500の位置情報を取得し端末処理部200へ出力する。図2の測位モジュール1555がこれに該当する。 The positioning unit 102 acquires the position information of the user terminal 1500 and outputs it to the terminal processing unit 200. The positioning module 1555 of FIG. 2 corresponds to this.

加速度計測部106は、ユーザ端末1500に生じた加速度を計測し、端末処理部200へ出力する。図2の3軸加速度センサ1556がこれに該当する。 The acceleration measuring unit 106 measures the acceleration generated in the user terminal 1500 and outputs it to the terminal processing unit 200. The triaxial acceleration sensor 1556 in FIG. 2 corresponds to this.

姿勢計測部108は、ユーザ端末1500の姿勢変化を計測し、端末処理部200へ出力する。図2の3軸ジャイロ1557がこれに該当する。 The posture measurement unit 108 measures the posture change of the user terminal 1500 and outputs it to the terminal processing unit 200. The 3-axis gyro 1557 of FIG. 2 corresponds to this.

音声入力部110は、ユーザが発する音声(ユーザ音声)や環境音を集音し、音声信号を端末処理部200へ出力する。図2のマイク1210がこれに該当する。 The voice input unit 110 collects a voice (user voice) emitted by the user and environmental sounds, and outputs a voice signal to the terminal processing unit 200. The microphone 1210 in FIG. 2 corresponds to this.

撮影部120は、外部の様子を撮影し、その画像データを生成して端末処理部200へ出力する。図2のカメラ1520がこれに該当する。 The image capturing unit 120 captures an image of the outside, generates image data of the image, and outputs the image data to the terminal processing unit 200. The camera 1520 of FIG. 2 corresponds to this.

端末処理部200は、例えば、CPUやGPU等のマイクロプロセッサや、ICメモリなどの電子部品によって実現され、操作入力部100や端末記憶部500を含む各機能部との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、操作入力部100からの操作入力信号、サーバシステム1100から受信した各種データに基づいて各種の演算処理を実行して、ユーザ端末1500の動作を制御する。図2の制御基板1550がこれに該当する。 The terminal processing unit 200 is realized by, for example, a microprocessor such as a CPU or a GPU, or an electronic component such as an IC memory, and controls input/output of data with each functional unit including the operation input unit 100 and the terminal storage unit 500. I do. Then, various arithmetic processes are executed based on a predetermined program and data, an operation input signal from the operation input unit 100, and various data received from the server system 1100 to control the operation of the user terminal 1500. The control board 1550 of FIG. 2 corresponds to this.

そして、本実施形態における端末処理部200は、カメラ制御部202と、カメラワーク記録管理部210と、計時部280と、音生成部290と、画像生成部292と、通信制御部294と、を有する。 Then, the terminal processing unit 200 in the present embodiment includes a camera control unit 202, a camera work record management unit 210, a clock unit 280, a sound generation unit 290, an image generation unit 292, and a communication control unit 294. Have.

カメラ制御部202は、操作入力部100へのユーザによるズーム操作の入力を検出して、当該ズーム操作に応じて撮影部120のズーム倍率を変更する制御を行う。 The camera control unit 202 detects a user's input of a zoom operation to the operation input unit 100, and controls to change the zoom magnification of the imaging unit 120 according to the zoom operation.

カメラワーク記録管理部210は、カメラワークデータ550の記録に係る各種処理を実行する。具体的には、カメラワーク記録管理部210は、仮想空間設定制御部212と、計測データ取得制御部213と、仮想カメラ制御部214と、操作指示制御部216と、カメラワークデータ生成部220と、仮想空間画像生成制御部230と、仮想空間画像記録制御部232と、不適変化自動停止部234と、通知制御部236と、中断タイミング設定部240と、候補タイミング提示部242と、警告制御部244と、を有する。勿論、これら以外の機能部も適宜含めることができる。 The camerawork record management unit 210 executes various processes related to recording the camerawork data 550. Specifically, the camera work record management unit 210 includes a virtual space setting control unit 212, a measurement data acquisition control unit 213, a virtual camera control unit 214, an operation instruction control unit 216, and a camera work data generation unit 220. , Virtual space image generation control unit 230, virtual space image recording control unit 232, improper change automatic stop unit 234, notification control unit 236, interruption timing setting unit 240, candidate timing presentation unit 242, and warning control unit. 244, and. Of course, functional units other than these may be included as appropriate.

仮想空間設定制御部212は、仮想3次元空間を設定する。本実施形態では、仮想3次元空間を用意し、被写体オブジェクト4や背景オブジェクトを配置し、楽曲の再生と同期させてそれらの動作を制御することが該当する。 The virtual space setting control unit 212 sets a virtual three-dimensional space. In the present embodiment, provision of a virtual three-dimensional space, placement of the subject object 4 and the background object, and control of their operations in synchronization with the reproduction of the music correspond to this.

計測データ取得制御部213は、ユーザ端末1500の位置および姿勢を計測した計測データを取得する制御を行う。本実施形態では、ユーザ端末1500に具備されたカメラ1520を用いて計測データを取得する。具体的には、拡張現実技術による制御を行う。すなわち、カメラ1520が撮影している画像からARマーカ5を認識し、相対位置・相対姿勢を算出して計測データとする(図3参照)。また、測位部102、加速度計測部106、姿勢計測部108の各計測データに基づいてユーザ端末1500の位置や姿勢、位置変化や姿勢変化、移動軌跡L1を求める制御もこれに該当する。データに着目すれば、実撮影条件データ560の生成制御も該当する。 The measurement data acquisition control unit 213 performs control to acquire measurement data obtained by measuring the position and orientation of the user terminal 1500. In this embodiment, measurement data is acquired using the camera 1520 provided in the user terminal 1500. Specifically, the control by the augmented reality technology is performed. That is, the AR marker 5 is recognized from the image captured by the camera 1520, and the relative position/orientation is calculated and used as the measurement data (see FIG. 3). Further, the control for obtaining the position and orientation of the user terminal 1500, the position change and orientation change, and the movement locus L1 based on the measurement data of the positioning unit 102, the acceleration measurement unit 106, and the orientation measurement unit 108 also corresponds to this. Focusing on the data, the generation control of the actual photographing condition data 560 also applies.

なお、計測データの取得は、ユーザ端末1500に具備されたカメラ1520やセンサ類を用いる計測にて実現するに限らない。例えば、通信可能な外部装置から、ユーザ端末1500の位置や姿勢の計測データを取得する構成も可能である。具体的には、ユーザ端末1500と別体の位置姿勢計測装置を用意して、当該装置に、位置や姿勢の基準となるもの(ARマーカ5など)に対するユーザ端末1500の相対位置と相対姿勢とを計測させ、計測データを逐一データ通信でユーザ端末1500に送信させるとしてもよい。その場合、当該位置姿勢計測装置による計測手法は、適宜設定可能である。例えば、赤外線ビームを照射して各部位の相対距離を計測する手法や、画像を撮影して画像解析して求める手法であってもよい。 It should be noted that the acquisition of the measurement data is not limited to being realized by the measurement using the camera 1520 and the sensors provided in the user terminal 1500. For example, a configuration is possible in which measurement data of the position and orientation of the user terminal 1500 is acquired from an external device that can communicate. Specifically, a position/orientation measuring device that is separate from the user terminal 1500 is prepared, and the relative position and relative attitude of the user terminal 1500 with respect to a device that serves as a position or orientation reference (such as the AR marker 5) are provided in the device. May be measured and the measurement data may be transmitted to the user terminal 1500 by data communication one by one. In that case, the measuring method by the position/orientation measuring apparatus can be set appropriately. For example, a method of irradiating an infrared beam to measure the relative distance of each part, or a method of taking an image and analyzing the image to obtain the image may be used.

仮想カメラ制御部214は、仮想3次元空間を撮影する仮想カメラの位置および姿勢を、ユーザ端末1500の位置や姿勢の計測データに連動させて制御する(図3参照)。その際、仮想カメラ制御部214は、仮想カメラの撮影画角を撮影部120のズーム倍率に連動させて制御する。 The virtual camera control unit 214 controls the position and orientation of the virtual camera that captures the virtual three-dimensional space in association with the measurement data of the position and orientation of the user terminal 1500 (see FIG. 3). At that time, the virtual camera control unit 214 controls the shooting angle of view of the virtual camera in association with the zoom magnification of the shooting unit 120.

操作指示制御部216は、所定の記録停止操作によって記録停止指示を与え、所定の記録再開操作によって記録再開指示を与える制御を行う。本実施形態では、操作指示制御部216は、記録停止操作アイコン14または記録終了操作アイコン16へのタッチ操作を検出すると、記録停止指示を出力する。記録再開操作アイコン15へのタッチ操作を検出すると、記録再開指示を出力する。 The operation instruction control unit 216 performs control to give a recording stop instruction by a predetermined recording stop operation and give a recording restart instruction by a predetermined recording restart operation. In the present embodiment, the operation instruction control unit 216 outputs a recording stop instruction when detecting a touch operation on the recording stop operation icon 14 or the recording end operation icon 16. When a touch operation on the recording restart operation icon 15 is detected, a recording restart instruction is output.

カメラワークデータ生成部220は、仮想カメラ制御部214によって連続的に制御された仮想3次元空間中の仮想カメラの位置および姿勢を再現可能なカメラワークデータを生成・記録する制御を行う(図5参照)。その際、カメラワークデータ生成部220は、カメラワークデータとして、現実空間に設定された所与の位置を基準としたユーザ端末1500の相対位置および相対姿勢を時系列に記録したデータ、或いは、仮想カメラC1の位置および姿勢を時系列に記録したデータを少なくとも含むデータの記録を制御する。また、カメラワークデータ生成部220は、仮想カメラの撮影画角を再現可能なデータをカメラワークデータに含めて記録する。 The camera work data generation unit 220 controls to generate and record camera work data capable of reproducing the position and orientation of the virtual camera in the virtual three-dimensional space continuously controlled by the virtual camera control unit 214 (FIG. 5). reference). At that time, the camerawork data generation unit 220 records, as the camerawork data, time-series data of a relative position and a relative attitude of the user terminal 1500 based on a given position set in the physical space, or a virtual image. The recording of data including at least the data in which the position and orientation of the camera C1 are recorded in time series is controlled. Further, the camera work data generation unit 220 records the data that can reproduce the shooting angle of view of the virtual camera in the camera work data.

そして、カメラワークデータ生成部220は、中断再開制御部222を有する。
中断再開制御部222は、所与の記録停止指示に応じた記録の停止と、所与の記録再開指示に応じた記録の開始とを行うことでカメラワークデータの中断および再開を制御する。その際、中断再開制御部222は、記録再開指示に応じて記録を開始した際の仮想カメラの位置および姿勢を、記録停止指示による停止前のカメラワークデータの所与の中断タイミングにおける仮想カメラの位置および姿勢に適合させることで、記録再開指示後のカメラワークデータを、停止前のカメラワークデータの中断タイミング以降に引き続くカメラワークデータとして記録する。
具体的には、中断再開制御部222は、変換関数を用いて記録再開指示後のカメラワークデータを記録する。
Then, the camera work data generation unit 220 has an interruption/resumption control unit 222.
The interruption/resumption control unit 222 controls interruption and resumption of camera work data by stopping recording in response to a given recording stop instruction and starting recording in response to a given recording restart instruction. At that time, the interruption/resumption control unit 222 determines the position and orientation of the virtual camera at the time of starting recording in response to the recording restart instruction by using the virtual camera at the given interruption timing of the camera work data before the stop by the recording stop instruction. By adapting to the position and orientation, the camera work data after the recording restart instruction is recorded as the camera work data that continues after the interruption timing of the camera work data before the stop.
Specifically, the suspension/resumption control unit 222 records the camera work data after the recording restart instruction by using the conversion function.

本実施形態では、記録停止指示には、記録停止操作アイコン14または記録終了操作アイコン16へのタッチ操作が該当する。記録再開指示には、記録再開操作アイコン15へのタッチ操作が該当する。中断された記録を再開する再開タイミング(中断タイミング)は、シークバー20を介してユーザ2が指示操作入力したタイミングである。 In the present embodiment, the recording stop instruction corresponds to a touch operation on the recording stop operation icon 14 or the recording end operation icon 16. The recording restart instruction corresponds to a touch operation on the recording restart operation icon 15. The restart timing (interruption timing) for restarting the interrupted recording is the timing at which the user 2 inputs an instruction operation via the seek bar 20.

また、中断再開制御部222は、記録再開指示に応じて記録を開始した際の仮想カメラのズーム倍率を、中断タイミングにおける仮想カメラのズーム倍率となるように制御して引き続くカメラワークデータの記録を行う。 Further, the interruption/resumption control unit 222 controls the zoom magnification of the virtual camera at the time of starting recording in response to the recording restart instruction so as to be the zoom magnification of the virtual camera at the interruption timing to continuously record the camera work data. To do.

そして、中断再開制御部222は、停止前のカメラワークデータの中断タイミングまでのデータと、引き続くカメラワークデータとを接続して一連のカメラワークデータとして記録する。具体的には、中断再開制御部222は、記録再開指示に応じて記録を開始した際の仮想カメラの位置および姿勢を、停止前のカメラワークデータの中断タイミングにおける仮想カメラの位置および姿勢に適合させるための変換関数を生成し、当該変換関数を引き続くカメラワークデータに適用することで、一連のカメラワークデータとしての記録を行う(図10参照)。 Then, the suspension/resumption control unit 222 connects the data up to the suspension timing of the camera work data before the suspension and the subsequent camera work data, and records them as a series of camera work data. Specifically, the interruption/resumption control unit 222 adapts the position and orientation of the virtual camera when recording is started in response to the recording restart instruction to the position and orientation of the virtual camera at the interruption timing of the camera work data before the stop. A conversion function for performing the above is generated, and the conversion function is applied to the subsequent camera work data to perform recording as a series of camera work data (see FIG. 10).

仮想空間画像生成制御部230は、カメラワークデータ生成部220によるカメラワークデータの記録時に、当該記録中のカメラワークデータに係る仮想カメラの位置および姿勢で撮影された仮想3次元空間の画像を生成する。生成された仮想空間画像は、カメラ1520で撮影されている現実空間の画像と重畳処理され、撮影画面W11にてライブ画像30として表示される(図3、図11参照)。 When recording the camera work data by the camera work data generation unit 220, the virtual space image generation control unit 230 generates an image of the virtual three-dimensional space photographed at the position and orientation of the virtual camera according to the camera work data being recorded. To do. The generated virtual space image is superimposed on the image of the real space captured by the camera 1520 and displayed as the live image 30 on the capturing screen W11 (see FIGS. 3 and 11).

仮想空間画像記録制御部232は、カメラワークデータ生成部220により記録されたカメラワークデータに対応付けて、仮想空間画像生成制御部230により生成された画像を記録する制御を行う。本実施形態では、カメラワークデータ550内に仮想空間画像録画データ582として記録される(図5参照)。 The virtual space image recording control unit 232 controls the recording of the image generated by the virtual space image generation control unit 230 in association with the camera work data recorded by the camera work data generation unit 220. In this embodiment, the virtual space image recording data 582 is recorded in the camera work data 550 (see FIG. 5).

不適変化自動停止部234は、計測データが、仮想3次元空間を撮影する際の不適な変化をしたことを示す所与の不適変化条件を満たしたことを検出し、当該検出に応じて記録停止指示を与える(図12参照)。 The improper change automatic stop unit 234 detects that the measurement data satisfies a given improper change condition indicating that the measurement data has made an improper change when capturing an image in the virtual three-dimensional space, and stops recording according to the detection. Give instructions (see Figure 12).

通知制御部236は、不適変化自動停止部234による記録の停止をユーザに通知する。本実施形態では、自動記録停止通知19の表示制御がこれに該当する(図12参照)。 The notification control unit 236 notifies the user of the stop of the recording by the improper change automatic stop unit 234. In the present embodiment, the display control of the automatic recording stop notification 19 corresponds to this (see FIG. 12).

中断タイミング設定部240は、一時停止後の再開時の再開タイミング(中断タイミング)を設定するための機能部であり、ユーザの操作入力に基づいてこの中断タイミングを設定する。本実施形態では、シークバー20の表示とシークバー20への指示操作入力に応じた中断タイミング(再開タイミング)の設定とがこれに該当する(図13参照)。 The suspension timing setting unit 240 is a functional unit for setting a resumption timing (suspension timing) at the time of resuming after the suspension, and sets the suspension timing based on a user's operation input. In the present embodiment, the display of the seek bar 20 and the setting of the interruption timing (restart timing) according to the instruction operation input to the seek bar 20 correspond to this (see FIG. 13 ).

候補タイミング提示部242は、中断タイミング(再開タイミング)の候補タイミングを自動選択し、当該候補タイミングにおける仮想カメラの位置および姿勢で撮影された仮想3次元空間の画像をユーザに提示する制御を行う。本実施形態では、シークバー20に添付表示されるサムネイル22の表示に係る制御がこれに該当する(図13参照)。 The candidate timing presentation unit 242 automatically selects the candidate timing of the interruption timing (restart timing), and presents the user with the image of the virtual three-dimensional space photographed at the position and orientation of the virtual camera at the candidate timing. In the present embodiment, the control relating to the display of the thumbnail 22 that is attached and displayed on the seek bar 20 corresponds to this (see FIG. 13 ).

また、候補タイミング提示部242は、不適変化自動停止部234により不適変化条件を満たしたことが検出される直前のタイミングを、中断タイミングの候補タイミングとして選択し、当該候補タイミングにおける仮想カメラの位置および姿勢で撮影された仮想3次元空間の画像をユーザに提示する制御を行う。本実施形態では、自動的な遡及による候補タイミングの選択と、サムネイル22aの表示制御とが、これに該当する。 In addition, the candidate timing presentation unit 242 selects the timing immediately before the unsuitable change automatic stop unit 234 detects that the unsuitable change condition is satisfied, as the candidate timing of the interruption timing, and the position of the virtual camera at the candidate timing. The control for presenting the image of the virtual three-dimensional space captured in the posture to the user is performed. In the present embodiment, automatic retrospective selection of candidate timings and display control of the thumbnails 22a correspond to this.

警告制御部244は、記録再開指示に応じた記録の開始を行う際に、計測データに基づく仮想カメラの位置および姿勢と、停止前のカメラワークデータに基づく中断タイミングでの仮想カメラの位置および姿勢との差が、所与のズレ条件を満たす場合に、ユーザに警告を行う制御を行う。具体的には、ズレ条件を満たす場合に、記録が中断された後の撮影画面W13にて、所定の警告表示を行う。 The warning control unit 244, when starting recording in response to the recording restart instruction, the position and orientation of the virtual camera based on the measurement data and the position and orientation of the virtual camera at the interruption timing based on the camera work data before the stop. If the difference between and the condition satisfies a given deviation condition, control is performed to warn the user. Specifically, when the shift condition is satisfied, a predetermined warning is displayed on the shooting screen W13 after the recording is interrupted.

ズレ条件は、適宜設定可能である。例えば、「想定されるユーザ像の平均身長以上の位置ズレ」や「180°±5°の姿勢ズレ」などを、単独または組み合わせて定義する。前者の場合は、再開時のユーザ端末1500の位置が、再開タイミングの位置とあまりにも離れてしまっているために、再開後のカメラワークをつける操作において、物理的に移動が困難になる可能性が高いことをユーザに報せることができる。より具体的には、例えば、再生タイミングにおけるユーザ端末1500の位置が、床面に近い位置であり、ユーザ端末1500を持ち上げてユーザ2の頭の上から再開をしたとすると、それ以降はユーザ端末1500をそれ以上上方向に移動することが、身体的に難しくなり得る。例えば、踏み台やハシゴとかを使わないと届かなくなる。よって、ユーザ2に警告を与えることで、そうした事態が生じることを未然に防ぐことができる。後者の場合では、ユーザ端末1500の姿勢に関する認識が、操作が記録の中断と再開とで逆転するので、ユーザ端末1500を再開後のカメラワーク中に反転できるような持ち方をしている必要がないか、など再開後のカメラワークの再確認の機会をユーザ2に提供できる。 The shift condition can be set as appropriate. For example, “positional deviation equal to or more than the expected average height of the user image” and “posture deviation of 180°±5°” are defined individually or in combination. In the former case, the position of the user terminal 1500 at the time of resumption is too far from the position at the resumption timing, which may make it difficult to physically move in the operation of attaching the camerawork after the resumption. Can be reported to the user. More specifically, for example, when the position of the user terminal 1500 at the reproduction timing is a position close to the floor surface and the user terminal 1500 is lifted and restarted from above the head of the user 2, after that, the user terminal 1500 Moving 1500 further upwards can be physically difficult. For example, it will not reach unless you use a springboard or ladder. Therefore, by giving a warning to the user 2, it is possible to prevent such a situation from occurring. In the latter case, since the recognition of the posture of the user terminal 1500 is reversed between the interruption and the restart of the recording, it is necessary to hold the user terminal 1500 so that it can be reversed during the camera work after the restart. It is possible to provide the user 2 with an opportunity to reconfirm camerawork after resumption.

計時部280は、システムクロックを利用して現在日時や制限時間等の計時を行う。 The clock unit 280 uses the system clock to clock the current date and time, time limit, and the like.

音生成部290は、例えば、デジタルシグナルプロセッサ(DSP)や、音声合成ICなどのプロセッサ、音声ファイルを再生可能なオーディオコーデック等によって実現され、楽曲や効果音、各種操作音の音信号を生成し、音出力部390に出力する。 The sound generation unit 290 is realized by, for example, a digital signal processor (DSP), a processor such as a voice synthesis IC, an audio codec capable of reproducing a voice file, or the like, and generates a sound signal of a music piece, a sound effect, or various operation sounds. , To the sound output unit 390.

音出力部390は、音生成部290から入力される音信号に基づいて音出力(放音)する装置によって実現される。図2のスピーカ1510がこれに該当する。 The sound output unit 390 is realized by a device that outputs (sounds) sound based on the sound signal input from the sound generation unit 290. The speaker 1510 of FIG. 2 corresponds to this.

画像生成部292は、各種画像データの生成および画像表示部392にそれらの画像を表示させるための画像信号の生成出力などの制御を行う。本実施形態では、仮想空間画像、拡張現実画像、を生成する。 The image generation unit 292 controls generation of various image data and generation/output of image signals for displaying those images on the image display unit 392. In this embodiment, a virtual space image and an augmented reality image are generated.

画像表示部392は、画像生成部292から入力される画像信号に基づいて各種画像を表示する。例えば、フラットパネルディスプレイ、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。本実施形態では、図2のタッチパネル1506がこれに該当する。 The image display unit 392 displays various images based on the image signal input from the image generation unit 292. For example, it can be realized by an image display device such as a flat panel display, a projector, or a head mounted display. In the present embodiment, the touch panel 1506 of FIG. 2 corresponds to this.

通信制御部294は、データ通信に係るデータ処理を実行し、通信部394を介して外部装置とのデータのやりとりを実現する。 The communication control unit 294 executes data processing related to data communication and realizes data exchange with an external device via the communication unit 394.

通信部394は、ネットワーク9と接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図2の無線通信モジュール1553がこれに該当する。 The communication unit 394 connects to the network 9 to realize communication. For example, it is realized by a wireless communication device, a modem, a TA (terminal adapter), a jack of a wired communication cable, a control circuit, and the like, and the wireless communication module 1553 of FIG. 2 corresponds to this.

端末記憶部500は、端末処理部200にユーザ端末1500を統合的に制御させるための諸機能を実現するためのプログラムや、各種データ等を記憶する。また、端末処理部200の作業領域として用いられ、端末処理部200が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。こうした機能は、例えば、RAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスクなどによって実現される。図2の制御基板1550が搭載するICメモリ1552やメモリカード1540がこれに該当する。オンラインストレージを利用する構成も可能である。 The terminal storage unit 500 stores a program for realizing various functions for causing the terminal processing unit 200 to integrally control the user terminal 1500, various data, and the like. Further, it is used as a work area of the terminal processing unit 200, and temporarily stores a calculation result executed by the terminal processing unit 200 according to various programs, input data input from the operation input unit 100, and the like. Such a function is realized by, for example, an IC memory such as a RAM or a ROM, a magnetic disk such as a hard disk, an optical disk such as a CD-ROM or a DVD. The IC memory 1552 and the memory card 1540 mounted on the control board 1550 of FIG. 2 correspond to this. A configuration that uses online storage is also possible.

図15は、端末記憶部500が記憶するプログラムやデータの例を示す図である。端末記憶部500は、端末プログラム501と、モデルデータ510と、モーションデータ512と、楽曲データ514と、計測データ548と、カメラワークデータ550(図5参照)と、変換関数データ590と、現在日時800と、を記憶する。勿論、これら以外のプログラムやデータも適宜記憶することができる。 FIG. 15 is a diagram showing an example of programs and data stored in the terminal storage unit 500. The terminal storage unit 500 includes a terminal program 501, model data 510, motion data 512, music data 514, measurement data 548, camera work data 550 (see FIG. 5), conversion function data 590, and current date and time. 800 is stored. Of course, programs and data other than these can be stored as appropriate.

端末プログラム501は、端末処理部200に、ユーザ端末1500としての機能を実現させるためのプログラムであって、カメラ制御部202としての機能を実現させることができる。端末プログラム501は、カメラワーク記録管理プログラム502を含み、当該プログラムを端末処理部200が実行することで、カメラワーク記録管理部210としての機能が実装される。 The terminal program 501 is a program for causing the terminal processing unit 200 to realize the function as the user terminal 1500 and can realize the function as the camera control unit 202. The terminal program 501 includes a camera work record management program 502, and the function of the camera work record management unit 210 is implemented by the terminal processing unit 200 executing the program.

モデルデータ510は、被写体オブジェクト4のモデルデータである。モーションデータ512は、被写体オブジェクト4の動作制御を実現するためのデータである。楽曲データ514は、楽曲の音及び/又は音声のデータである。これらのデータは、ユーザ自身が別途作成したり用意したデータでもよいし、サーバシステム1100にオリジナルがあって適宜ダウンロードするとしてもよい。 The model data 510 is model data of the subject object 4. The motion data 512 is data for realizing motion control of the subject object 4. The music data 514 is sound and/or voice data of music. These data may be data created or prepared separately by the user himself, or may be appropriately downloaded by the server system 1100 having an original.

変換関数データ590は、記録再開指示に応じた記録を開始した際の仮想カメラの位置および姿勢を、停止前のカメラワークデータの中断タイミングにおける仮想カメラの位置および姿勢に適合させるための補正処理に使用する変換関数を定義するデータである。本実施形態では、変換行列のデータを格納する(図10参照)。 The conversion function data 590 is used for correction processing for adapting the position and orientation of the virtual camera at the time of starting recording according to the recording restart instruction to the position and orientation of the virtual camera at the interruption timing of the camera work data before the stop. This is the data that defines the conversion function to be used. In this embodiment, the data of the conversion matrix is stored (see FIG. 10).

次に、本実施形態の動画生成システム1000の動作について説明する。
図16は、ユーザ端末1500における処理の流れを説明するためのフローチャートである。ここで説明する処理の流れは、ユーザ端末1500が、端末処理部200で端末プログラム501を実行することにより実現される。
Next, the operation of the moving image generation system 1000 of this embodiment will be described.
FIG. 16 is a flowchart for explaining the flow of processing in the user terminal 1500. The process flow described here is realized by the user terminal 1500 executing the terminal program 501 in the terminal processing unit 200.

ユーザ端末1500は、先ずユーザ端末1500の位置と姿勢の計測データの取得と、カメラ1520での撮影とを開始し(ステップS10)、仮想3次元空間の設定と、被写体オブジェクト4などのオブジェクトの制御と、位置や姿勢の計測データおよびズーム操作等に基づく仮想カメラC1との連動制御と、を開始する(ステップS12)。そして、ユーザ端末1500は、撮影画面W11(図11参照)の表示を開始する(ステップS14)。 The user terminal 1500 first starts acquisition of measurement data of the position and orientation of the user terminal 1500 and shooting with the camera 1520 (step S10), sets a virtual three-dimensional space, and controls an object such as the subject object 4. And the interlocking control with the virtual camera C1 based on the measurement data of the position and orientation, the zoom operation, etc. are started (step S12). Then, the user terminal 1500 starts displaying the shooting screen W11 (see FIG. 11) (step S14).

次に、ユーザ端末1500は、記録開始操作の入力を検出すると、記録開始指示があったと判断して(ステップS16)、カメラワークデータ550の生成・記録を開始する(ステップS18)。そして、記録終了操作の入力を検出するまで、すなわち記録終了指示があるまで(ステップS20のNO)、ユーザ端末1500は周期的に記録中断再開処理を実行する(ステップS22)。 Next, when the user terminal 1500 detects the input of the recording start operation, the user terminal 1500 determines that a recording start instruction has been given (step S16), and starts generation/recording of the camera work data 550 (step S18). Then, until the input of the recording end operation is detected, that is, until the recording end instruction is given (NO in step S20), the user terminal 1500 periodically executes the recording interruption restart processing (step S22).

図17〜図18は、記録中断再開処理の流れを説明するためのフローチャートである。図17に示すように、同処理において、ユーザ端末1500は、記録停止操作アイコン14(図11参照)へのタッチ操作の検出すなわち記録停止操作の入力を検出した場合(ステップS30のYES)、記録停止指示があったと判断して、ユーザ2の操作入力に基づいて記録が停止・中断した旨の表示制御を行う(ステップS40)。そして、ユーザ端末1500は、カメラワークデータ550の記録を停止・中断し(ステップS42)、楽曲の再生および被写体オブジェクト4の動作制御を一時停止する(ステップS44)。 17 to 18 are flowcharts for explaining the flow of the recording interruption restart processing. As shown in FIG. 17, in the same process, when the user terminal 1500 detects a touch operation on the recording stop operation icon 14 (see FIG. 11), that is, an input of a recording stop operation (YES in step S30), the recording is performed. When it is determined that a stop instruction has been issued, display control to the effect that recording has been stopped/interrupted is performed based on the operation input of the user 2 (step S40). Then, the user terminal 1500 stops/interrupts the recording of the camera work data 550 (step S42), and temporarily stops the reproduction of the music and the operation control of the subject object 4 (step S44).

また、ユーザ端末1500の位置や姿勢の計測結果が、位置不適変化条件を満たした場合または姿勢不適変化条件を満たした場合(ステップS32のYES)、位置または姿勢が不適当に変化したために自動的に記録が停止・中断した旨の表示制御を行う(ステップS41)。そして、記録停止指示があったと判断して、カメラワークデータ550の記録を停止し(ステップS42)、楽曲の再生および被写体オブジェクト4の動作制御を一時停止する(ステップS44)。 In addition, when the measurement result of the position or orientation of the user terminal 1500 satisfies the position inappropriate change condition or the posture inappropriate change condition (YES in step S32), the position or posture is automatically changed because the position or posture is inappropriately changed. Then, display control is performed to the effect that recording has been stopped/interrupted (step S41). Then, it is determined that the recording stop instruction is given, the recording of the camera work data 550 is stopped (step S42), and the reproduction of the music and the operation control of the subject object 4 are temporarily stopped (step S44).

次に、ユーザ端末1500は、中断タイミング(記録を再開する再開タイミングに相当)の候補タイミングを自動選択し(ステップS46)、タッチパネル1506に表示されている撮影画面内にシークバー20を表示させ、中断タイミングの指示操作入力の受付を開始する(ステップS48)。そして、ユーザ端末1500は、自動選択された候補タイミングの示すシークバー20の位置に対応付けてサムネイル22を表示させる(ステップS50)。この段階では、自動的に遡及された第1の候補タイミングにスライダー21の位置は合わせて表示される。 Next, the user terminal 1500 automatically selects the candidate timing of the interruption timing (corresponding to the resumption timing for resuming recording) (step S46), displays the seek bar 20 in the shooting screen displayed on the touch panel 1506, and interrupts. Reception of a timing instruction operation input is started (step S48). Then, the user terminal 1500 displays the thumbnail 22 in association with the position of the seek bar 20 indicated by the automatically selected candidate timing (step S50). At this stage, the position of the slider 21 is displayed in alignment with the first candidate timing that is automatically retroactively searched.

次に、ユーザ端末1500は、警告制御を開始する(ステップS52)。
具体的には、カメラワークデータ550から、今現在において再開タイミングとされる過去の時点におけるユーザ端末1500の位置や姿勢を読み出して、今現在のユーザ端末1500の位置や姿勢の計測値と比較して、所定のズレ条件が満たされているかを判定する。そして、満たされている場合、ユーザ端末1500は操作画面内に所定の警告表示を表示する。
Next, the user terminal 1500 starts warning control (step S52).
Specifically, from the camera work data 550, the position and orientation of the user terminal 1500 at the past time, which is now the restart timing, is read out and compared with the current measured value of the position and orientation of the user terminal 1500. Then, it is determined whether or not a predetermined shift condition is satisfied. If it is satisfied, the user terminal 1500 displays a predetermined warning display in the operation screen.

次いでユーザ端末1500は、最新の指示タイミングに基づく変換関数を生成して(ステップS56)、変換関数の逐次更新を開始する(ステップS58)。また、ユーザ端末1500は、楽曲の再生制御および被写体オブジェクト4の動作制御を、最新の指示タイミングが示すタイミングまで巻き戻す制御を開始する(ステップS60)。 Next, the user terminal 1500 generates a conversion function based on the latest instruction timing (step S56), and starts the sequential update of the conversion function (step S58). Further, the user terminal 1500 starts control for rewinding the music reproduction control and the motion control of the subject object 4 to the timing indicated by the latest instruction timing (step S60).

また、ステップS56〜ステップS58によって、これ以降は、ユーザ端末1500の位置・姿勢を変化させたり、カメラ1520のズーム倍率を変化させると、自動的に変換関数が更新されることになる。 Further, after step S56 to step S58, when the position/orientation of the user terminal 1500 is changed or the zoom magnification of the camera 1520 is changed, the conversion function is automatically updated.

また、ステップS60により、これ以降は、楽曲の再生と、被写体オブジェクト4を初めとする仮想3次元空間の動作制御とは、最新の指示タイミングからいつでも再開できるように準備されることになる。 Further, by the step S60, thereafter, the reproduction of the music and the operation control of the virtual three-dimensional space including the subject object 4 are prepared so that they can be restarted at any time from the latest instruction timing.

図18に移って、ユーザ端末1500は、記録再開操作アイコン15へのタッチを検出すると、ユーザ端末1500は、記録再開操作の入力を検出したと判断し(ステップS70のYES)、警告制御を終了する(ステップS78)。そして、ユーザ端末1500は変換関数データ590(図15参照)が示す最新の変換関数を適用してカメラワークデータ550の記録を再開し(ステップS80;図10参照)、楽曲の再生と被写体オブジェクト4の動作制御を再開する(ステップS82)。なお、カメラワークデータ550の中断タイミング以降のデータは、記録再開されたデータで上書きされる。そして、ユーザ端末1500は、記録再開の旨をユーザに通知する制御を行って(ステップS84)、記録中断再開処理を終了する。 18, when the user terminal 1500 detects a touch on the recording restart operation icon 15, the user terminal 1500 determines that the input of the recording restart operation is detected (YES in step S70), and the warning control ends. Yes (step S78). Then, the user terminal 1500 restarts the recording of the camera work data 550 by applying the latest conversion function indicated by the conversion function data 590 (see FIG. 15) (step S80; see FIG. 10), the reproduction of the music and the subject object 4 The operation control of is restarted (step S82). It should be noted that the data after the interruption timing of the camera work data 550 is overwritten by the data whose recording has been restarted. Then, the user terminal 1500 performs control for notifying the user of the resumption of recording (step S84), and ends the recording interruption resuming process.

なお、記録中断再開処理の実行中であっても、終了操作の入力が検出されると(ステップS90のYES)、ユーザ端末1500は、処理を終了するともに、カメラワークデータ550の記録を終了する。 It should be noted that, even when the recording suspension/resumption processing is being executed, when the input of the end operation is detected (YES in step S90), the user terminal 1500 ends the processing and ends the recording of the camera work data 550. ..

図16に戻って、所定の終了操作の入力が検出されると(ステップS18のYES)、ユーザ端末1500は、カメラワークデータ550の記録を終了し(ステップS100)、楽曲の再生と被写体オブジェクト4の制御を終了し(ステップS102)、一連の処理を終了する。 Returning to FIG. 16, when the input of a predetermined end operation is detected (YES in step S18), the user terminal 1500 ends the recording of the camera work data 550 (step S100), and the music reproduction and the object object 4 are performed. The control is finished (step S102), and the series of processes is finished.

なお、ユーザ端末1500は、記録されたカメラワークデータ550等のサーバシステム1100へのアップロードは、所定のアップロード操作の入力を検出すると実行する(図6参照)。そして、所定の拡張現実画像の生成リクエスト操作の入力を検出すると、ユーザ端末1500は、所定の生成リクエストをサーバシステム1100へ送信する。 The user terminal 1500 uploads the recorded camera work data 550 and the like to the server system 1100 when it detects the input of a predetermined upload operation (see FIG. 6 ). Then, upon detecting the input of the predetermined augmented reality image generation request operation, the user terminal 1500 transmits the predetermined generation request to the server system 1100.

サーバシステム1100は、生成リクエストを受信すると、送信元であるユーザ端末1500からアップロードされたカメラワークデータ550等を用いて、拡張現実画像の動画データを作成し、これをユーザ端末1500へ提供可能にする(図7参照)。 Upon receiving the generation request, the server system 1100 can create moving image data of the augmented reality image using the camera work data 550 uploaded from the user terminal 1500, which is the transmission source, and can provide the moving image data to the user terminal 1500. (See FIG. 7).

このように、本実施形態によれば、ユーザ自らがビデオカメラを手に持って撮影したかのような印象を有するリアリティのある拡張現実の動画を簡単に作成できる。
加えて、カメラワークデータの記録は、中断と再開が可能である。よって、ユーザがカメラワークの記録の一時停止と再開を任意に行うことが可能になるので、思い通りのカメラワークデータを記録し易くなる。例えば、カメラワークの記録中に、体勢が苦しくなってしまい、思い描いているカメラワークを継続出来なくなったとしても、記録を一時停止することができる。そして、体勢を直してからカメラワークの記録を再開することができる。当初から記録をやり直さなくて済む。記録の一時停止をすることができるため、1カットずつ記録を進めていくといったこともできる。
As described above, according to the present embodiment, it is possible to easily create a realistic augmented reality moving image having an impression that the user himself/herself has taken a video camera and photographed it.
In addition, recording camera work data can be interrupted and resumed. Therefore, the user can arbitrarily pause and resume the recording of the camera work, and it becomes easy to record the desired camera work data. For example, even if the posture becomes uncomfortable during the recording of the camera work and the intended camera work cannot be continued, the recording can be temporarily stopped. Then, after the posture is corrected, the recording of the camera work can be resumed. You don't have to record again from the beginning. Since the recording can be paused, it is possible to advance the recording one by one.

そして、記録が再開される際には、コンピュータは、記録再開指示に応じて記録を開始した際の仮想カメラの位置および姿勢を、停止指示による停止前のカメラワークデータの所与の中断タイミングにおける仮想カメラの位置および姿勢に適合させる補正を自動的に行い、記録再開指示後のカメラワークデータを、停止前のカメラワークデータの中断タイミング以降に引き続くカメラワークデータとして記録を再開することができる。言い換えると、中断時のコンピュータの位置と、再開時のコンピュータの位置とに差異があったとしても、中断前後で位置飛びが生じることのない、一繋がりのカメラワークデータを記録できる。
本実施形態によれば、拡張現実や仮想現実の動画を作成するための新たな技術を提供することができる。
Then, when the recording is restarted, the computer determines the position and the posture of the virtual camera when the recording is started in response to the recording restart instruction at the given interruption timing of the camera work data before the stop by the stop instruction. It is possible to automatically perform the correction adapted to the position and orientation of the virtual camera, and restart the recording of the camera work data after the recording restart instruction as the camera work data that continues after the interruption timing of the camera work data before the stop. In other words, even if there is a difference between the position of the computer at the time of interruption and the position of the computer at the time of restart, it is possible to record a series of camera work data that does not cause a position jump before and after the interruption.
According to this embodiment, it is possible to provide a new technique for creating a video of augmented reality or virtual reality.

〔変形例〕
以上、本発明を適用した実施形態について説明したが、本発明を適用可能な形態は上記形態に限定されるものではなく適宜構成要素の追加・省略・変更を施すことができる。
[Modification]
Although the embodiments to which the present invention is applied have been described above, the embodiments to which the present invention can be applied are not limited to the above-described embodiments, and constituent elements can be appropriately added, omitted, or changed.

(変形例その1)
例えば、上記実施形態に、変換関数を変更する機能又は変換関数の適用効果を時間経過に応じて変更する機能を追加することもできる。
具体的には、中断再開制御部222が、引き続くカメラワークデータへの変換関数の適用効果を時間経過に応じて徐々に低減させる変換関数を変更する構成も可能である。より具体的には、例えば、仮想カメラの位置に着目すると、再開時の仮想カメラの位置から、中断タイミングにおける仮想カメラの位置へのベクトルを求め、これを変換関数とする。そして、記録の再開後は、ユーザ端末1500のARマーカ5に対する相対位置から求められる仮想カメラの仮想空間内に、このベクトルを適用して、仮想カメラ移動軌跡データ577(図5参照)を記録することとする。その一方で、中断再開制御部222は、記録の再開からの時間経過に応じて、ベクトルの大きさを「0」に向けて徐々に低下するように変更すればよい。
(Modification 1)
For example, a function of changing the conversion function or a function of changing the application effect of the conversion function according to the passage of time can be added to the above embodiment.
Specifically, the suspension/resumption control unit 222 may be configured to change the conversion function that gradually reduces the application effect of the conversion function to the subsequent camera work data as time passes. More specifically, for example, focusing on the position of the virtual camera, a vector from the position of the virtual camera at the time of restart to the position of the virtual camera at the interruption timing is obtained and used as a conversion function. After the recording is resumed, the virtual camera movement trajectory data 577 (see FIG. 5) is recorded by applying this vector to the virtual space of the virtual camera obtained from the relative position of the user terminal 1500 with respect to the AR marker 5. I will. On the other hand, the interruption/resumption control unit 222 may change the magnitude of the vector so as to gradually decrease toward “0” according to the lapse of time from the resumption of recording.

また、変換関数の適用効果を時間経過に応じて変更する機能の例としては、変換関数は固定とする一方で、当該変換関数を適用する際に係数を乗ずる構成とし、この係数を、記録再開からの時間経過に応じて低減(例えば、係数=1から係数=0へ向けて低減)する構成も可能である。 Also, as an example of a function that changes the application effect of a conversion function over time, the conversion function is fixed while the coefficient is multiplied when the conversion function is applied, and this coefficient is restarted for recording. It is also possible to adopt a configuration in which it is reduced (for example, reduced from coefficient=1 to coefficient=0) in accordance with the passage of time from.

(変形例その2)
また、上記実施形態では、カメラワークデータ550の記録の再開は、直近過去に記録したカメラワークデータ550に中断タイミングを設定し、当該中断タイミング以降に引き続くカメラワークデータを記録する構成としたが、中断タイミングを設定する対象は、直近過去に記録したカメラワークデータ550に限らない。
(Modification 2)
Further, in the above-described embodiment, the restart of the recording of the camera work data 550 is configured such that the interruption timing is set in the camera work data 550 recorded in the latest past, and the camera work data that continues after the interruption timing is recorded. The target for setting the interruption timing is not limited to the camera work data 550 recorded in the latest past.

具体的には、例えば、上記実施形態におけるステップS44と、ステップS46との間に、過去に記録済のカメラワークデータ550の中から、中断タイミングを設定する対象とするデータの選択操作入力を受け付けるステップを追加する。そして、当該ステップ以降は、当該ステップで選択されたカメラワークデータ550を対象として、中断タイミングを設定して、引き続くカメラワークデータを記録するとしてもよい。 Specifically, for example, between step S44 and step S46 in the above-described embodiment, a selection operation input of data for which interruption timing is to be set is received from the camera work data 550 recorded in the past. Add steps. Then, after the step, the interruption timing may be set for the camera work data 550 selected in the step, and the subsequent camera work data may be recorded.

(変形例その3)
また、被写体オブジェクトについては、上記実施形態では被写体オブジェクト4の数を1体として図示したが、同時に複数体用いてもよい。また、被写体オブジェクト4を、人の形態を模した仮想キャラクタとしたが、これに限らない。被写体オブジェクト4は、動物でも良いし、植物、風景、などでもよい。そして、被写体オブジェクトとしたものによっては、楽曲の再生や、楽曲に同期した動作制御も適宜省略可能である。
(Modification 3)
Further, regarding the subject object, although the number of subject objects 4 is illustrated as one in the above embodiment, a plurality of subject objects may be used at the same time. Further, although the subject object 4 is a virtual character imitating the form of a person, the present invention is not limited to this. The subject object 4 may be an animal, a plant, a landscape, or the like. Depending on the subject object, reproduction of music and operation control synchronized with music can be omitted as appropriate.

(変形例その4)
また、上記実施形態では拡張現実(AR:Augmented Reality)の画像の動画を作成する例を示したが、仮想現実(VR:Virtual Reality)の画像の動画を作成する場合にも同様に上記実施形態を適用することができる。上記実施形態の説明の「拡張現実」を「仮想現実」に適宜読み替えれば良い。
(Modification 4)
Further, in the above-described embodiment, an example of creating a moving image of augmented reality (AR) images has been described, but the same embodiment is also applied to creating a moving image of virtual reality (VR) images. Can be applied. The “augmented reality” in the description of the above embodiment may be appropriately read as “virtual reality”.

(変形例その5)
また、上記実施形態では、ユーザ端末1500のユーザ端末1500の位置や姿勢の計測にARマーカ5を用いる構成を例示したが、マーカレス方式のAR技術を用いて位置や姿勢を計測するとしてもよい。
(Modification 5)
In the above embodiment, the AR marker 5 is used to measure the position and orientation of the user terminal 1500 of the user terminal 1500, but the position and orientation may be measured using markerless AR technology.

(変形例その6)
また、上記実施形態では、拡張現実画像の動画の生成をサーバシステム1100にて行う例を示したが、これをユーザ端末1500にて行う構成も可能である。
(Modification 6)
Further, in the above-described embodiment, the example in which the moving image of the augmented reality image is generated by the server system 1100 is shown, but a configuration in which this is performed by the user terminal 1500 is also possible.

(変形例その7)
また、上記実施形態では、撮影画面において表示する操作アイコンは、適宜状況に応じて選択することができる(図8、図10、図11、図12参照)。例えば、記録処理の実行状況に応じて、その時点においてユーザが操作可能なアイコンのみを表示するようにしてもよい。具体的には、記録中は、記録停止操作アイコン14と、記録終了操作アイコン16とを表示し、一時停止中は、記録停止操作アイコン14に代えて記録再開操作アイコン15を表示する。
(Modification 7)
Further, in the above embodiment, the operation icon displayed on the shooting screen can be appropriately selected according to the situation (see FIGS. 8, 10, 11, and 12). For example, only icons that can be operated by the user at that time may be displayed according to the execution status of the recording process. Specifically, the recording stop operation icon 14 and the recording end operation icon 16 are displayed during recording, and the recording restart operation icon 15 is displayed instead of the recording stop operation icon 14 during pause.

また、撮影画面において操作アイコンを用いずに、各種の操作入力を受け付けるとしてもよい。例えば、タッチパネルへのタッチ軌跡を使用したジェスチャによる入力で各種の操作を指示してもよいし、ユーザ端末1500の物理ボタンによる操作入力で指示してもよいし、画面へのタッチで一時停止(記録中に画面タッチで一時停止指示)と記録再開(一時停止中に画面タッチで再開指示)を指示するようにしてもよい。 Further, various operation inputs may be accepted without using the operation icons on the shooting screen. For example, various operations may be instructed by an input by a gesture using a touch track on the touch panel, an operation may be instructed by an operation input by a physical button of the user terminal 1500, or a temporary stop by touching the screen ( It is also possible to instruct a pause instruction by touching the screen during recording) and a restart of recording (a restart instruction by touching the screen during the pause).

(変形例その8)
また、上記実施形態では、変換関数データ590が示す変換関数を用いて記録再開指示後のカメラワークデー550を記録した。つまり、記録再開指示に応じて記録を開始した際の仮想カメラの位置および姿勢を、記録停止指示による停止前のカメラワークデータの所与の中断タイミングにおける仮想カメラの位置および姿勢に適合させる補正処理は、カメラワークデータ550の記録時に行われる。しかし、補正処理は、カメラワークデータ550の記録時に行わずに、サーバシステム1100で拡張現実動画データ584を生成するのにともない仮想カメラC2の制御を行う時に補正処理を行う構成も可能である。
(Modification 8)
Further, in the above embodiment, the camera work day 550 after the recording restart instruction is recorded using the conversion function indicated by the conversion function data 590. That is, a correction process for adjusting the position and orientation of the virtual camera when recording is started according to the recording restart instruction to the position and orientation of the virtual camera at a given interruption timing of the camera work data before the stop by the recording stop instruction. Is performed when the camera work data 550 is recorded. However, the correction process may be performed without performing the correction process when recording the camera work data 550, and when performing the control of the virtual camera C2 as the augmented reality moving image data 584 is generated by the server system 1100.

この場合、中断再開制御部222は、変換関数データ590をカメラワークデータ550と対応づけて時系列に記憶保存し、サーバシステム1100へカメラワークデータ550をアップロードする際に、対応付けた変換関数データ590とともにアップロードすればよい(図6参照)。すなわち、変換関数をカメラワークデータの時間軸に対応付けて時系列に記録しておいて、補正処理が必要なときに参照できるようにしてもよい。 In this case, the interruption/resumption control unit 222 stores the conversion function data 590 in time series in association with the camera work data 550, and stores the conversion function data 590 in chronological order. It may be uploaded together with 590 (see FIG. 6). That is, the conversion function may be recorded in time series in association with the time axis of the camera work data so that the conversion function can be referred to when correction processing is necessary.

(変形例その9)
また、記録の自動停止の例として、ユーザ端末1500の位置や姿勢の急激な変化を検出した場合を例示したが、それ以外の自動停止を実現することとしてもよい。
(Modification 9)
Further, as an example of the automatic stop of recording, a case has been exemplified in which a rapid change in the position or posture of the user terminal 1500 is detected, but other automatic stop may be realized.

例えば、ユーザ端末1500のOS(オペレーティングシステム)からの通知(電源低下、他のアプリからの通知、電話の着信など)があった場合に記録を一時停止してもよい。また、ユーザ端末1500がユーザ2の操作入力に基づいてスリープモードに移行した場合に一時停止してもよい。また、ユーザ端末1500が、他のアプリケーションに切替操作が入力された場合に記録を一時停止するとしてもよい。 For example, the recording may be temporarily stopped when there is a notification from the OS (operating system) of the user terminal 1500 (power down, notification from another application, incoming call, etc.). Further, when the user terminal 1500 shifts to the sleep mode based on the operation input of the user 2, the user terminal 1500 may be temporarily stopped. Also, the user terminal 1500 may suspend recording when a switching operation is input to another application.

2…ユーザ
4…被写体オブジェクト
5…ARマーカ
10…モニタ表示
13…記録開始操作アイコン
14…記録停止操作アイコン
15…記録再開操作アイコン
16…記録終了操作アイコン
19…自動記録停止通知
20…シークバー
21…スライダー
22…サムネイル
30…ライブ画像
32…指示タイミング時仮想空間画像
34…判定結果通知
100…操作入力部
102…測位部
106…加速度計測部
108…姿勢計測部
120…撮影部
200…端末処理部
202…カメラ制御部
210…カメラワーク記録管理部
212…仮想空間設定制御部
213…計測データ取得制御部
214…仮想カメラ制御部
216…操作指示制御部
220…カメラワークデータ生成部
222…中断再開制御部
224…変換関数生成部
230…仮想空間画像生成制御部
232…仮想空間画像記録制御部
234…不適変化自動停止部
236…通知制御部
240…中断タイミング設定部
242…候補タイミング提示部
500…端末記憶部
501…端末プログラム
502…カメラワーク記録管理プログラム
550…カメラワークデータ
551…撮影ID
560…実撮影条件データ
561…実カメラ姿勢データ
563…実カメラ加速度データ
565…実ズーム制御データ
567…実移動軌跡データ
570…仮想撮影条件データ
571…仮想カメラ姿勢データ
573…仮想カメラ加速度データ
575…仮想カメラ撮影画角データ
577…仮想カメラ移動軌跡データ
580…現実画像録画データ
582…仮想空間画像録画データ
584…拡張現実動画データ
590…変換関数データ
1000…動画生成システム
1100…サーバシステム
1500…ユーザ端末
1550…制御基板
1555…測位モジュール
1556…3軸加速度センサ
1557…3軸ジャイロ
C1…仮想カメラ
C2…仮想カメラ
Pe…中断タイミング位置
Ps…始点位置
W11…撮影画面
2... User 4... Subject object 5... AR marker 10... Monitor display 13... Recording start operation icon 14... Recording stop operation icon 15... Recording restart operation icon 16... Recording end operation icon 19... Automatic recording stop notification 20... Seek bar 21... Slider 22... Thumbnail 30... Live image 32... Virtual space image at instruction timing 34... Judgment result notification 100... Operation input unit 102... Positioning unit 106... Acceleration measuring unit 108... Posture measuring unit 120... Imaging unit 200... Terminal processing unit 202 ... camera control unit 210... camera work record management unit 212... virtual space setting control unit 213... measurement data acquisition control unit 214... virtual camera control unit 216... operation instruction control unit 220... camera work data generation unit 222... suspend/resume control unit 224... Transformation function generation unit 230... Virtual space image generation control unit 232... Virtual space image recording control unit 234... Improper change automatic stop unit 236... Notification control unit 240... Interruption timing setting unit 242... Candidate timing presenting unit 500... Terminal storage Part 501... Terminal program 502... Camera work record management program 550... Camera work data 551... Shooting ID
560... Real shooting condition data 561... Real camera attitude data 563... Real camera acceleration data 565... Real zoom control data 567... Real movement trajectory data 570... Virtual shooting condition data 571... Virtual camera attitude data 573... Virtual camera acceleration data 575... Virtual camera shooting angle of view data 577... Virtual camera movement trajectory data 580... Real image recording data 582... Virtual space image recording data 584... Augmented reality moving image data 590... Transformation function data 1000... Moving image generating system 1100... Server system 1500... User terminal 1550... Control board 1555... Positioning module 1556... 3-axis acceleration sensor 1557... 3-axis gyro C1... Virtual camera C2... Virtual camera Pe... Interruption timing position Ps... Start point position W11... Shooting screen

Claims (9)

携帯型のコンピュータを、
仮想3次元空間を設定する仮想空間設定手段、
前記コンピュータの現実空間における位置および姿勢に基づいて、前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を制御する仮想カメラ制御手段、
前記仮想カメラ制御手段によって連続的に制御された前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録するカメラワークデータ生成手段、
として機能させ、
前記カメラワークデータ生成手段は、
所与の記録再開指示に応じて記録を開始した際の前記仮想カメラの位置および姿勢を、所与の記録停止指示による停止前のカメラワークデータの所与の中断タイミングにおける前記仮想カメラの位置および姿勢に適合させることで、前記記録再開指示後のカメラワークデータを、前記停止前のカメラワークデータの前記中断タイミング以降に引き続くカメラワークデータとして記録する中断再開制御手段、
を有する、
プログラム。
A portable computer,
Virtual space setting means for setting a virtual three-dimensional space,
Virtual camera control means for controlling the position and orientation of the virtual camera that captures the virtual three-dimensional space based on the position and orientation of the computer in the physical space,
Camera work data generation means for recording camera work data capable of reproducing the position and orientation of the virtual camera in the virtual three-dimensional space continuously controlled by the virtual camera control means,
Function as
The camera work data generation means,
The position and orientation of the virtual camera at the time of starting recording in response to a given recording restart instruction are defined as the position of the virtual camera at a given interruption timing of the camera work data before the stop by the given recording stop instruction and An interruption/resumption control unit that records the camera work data after the recording restart instruction by adapting to the posture as camera work data that continues after the interruption timing of the camera work data before the stop,
Has,
program.
前記カメラワークデータ生成手段は、現実空間に設定された所与の位置を基準とした前記コンピュータの相対位置および相対姿勢を時系列に記録したデータ、或いは、前記仮想カメラの位置および姿勢を時系列に記録したデータを少なくとも含むデータの記録を制御する、
請求項1に記載のプログラム。
The camera work data generation means is data in which the relative position and relative attitude of the computer are recorded in time series with reference to a given position set in the real space, or the position and attitude of the virtual camera are time series. Control the recording of data including at least the data recorded in
The program according to claim 1.
前記中断再開制御手段は、
前記記録再開指示に応じて記録を開始した際の前記仮想カメラの位置および姿勢を、前記停止前のカメラワークデータの前記中断タイミングにおける前記仮想カメラの位置および姿勢に適合させるための変換関数を生成する変換関数生成手段、
を有し、前記変換関数を用いて前記記録再開指示後のカメラワークデータを記録し、または、前記変換関数を時系列に記憶する、
請求項1又は2に記載のプログラム。
The suspension/resumption control means is
A conversion function is generated for adapting the position and orientation of the virtual camera when recording is started in response to the recording restart instruction to the position and orientation of the virtual camera at the interruption timing of the camera work data before the stop. Conversion function generating means,
And recording the camera work data after the recording restart instruction using the conversion function, or storing the conversion function in time series,
The program according to claim 1.
前記中断再開制御手段は、前記記録再開指示後のカメラワークデータへの前記変換関数の適用効果を時間経過に応じて徐々に低減させる、
請求項3に記載のプログラム。
The suspension/resumption control means gradually reduces the application effect of the conversion function to the camera work data after the recording restart instruction, as time passes.
The program according to claim 3.
前記計測データが、前記仮想3次元空間を撮影する際の不適な変化をしたことを示す所与の不適変化条件を満たしたことを検出し、当該検出に応じて前記記録停止指示を与える不適変化時自動停止手段、
前記不適変化時自動停止手段による記録の停止をユーザに通知する通知制御手段、
として前記コンピュータを機能させるための請求項1〜4の何れか一項に記載のプログラム。
An improper change that detects that the measurement data satisfies a given improper change condition that indicates an improper change when capturing the virtual three-dimensional space, and gives the recording stop instruction in response to the detection. When automatic stop means,
Notification control means for notifying the user of the stop of recording by the automatic stop means at the time of inappropriate change,
The program according to claim 1, which causes the computer to function as a computer.
前記中断タイミングの候補タイミングを自動選択し、当該候補タイミングにおける前記仮想カメラの位置および姿勢で撮影された前記仮想3次元空間の画像をユーザに提示する制御を行う候補タイミング提示手段、
として前記コンピュータを機能させるための請求項1〜5の何れか一項に記載のプログラム。
Candidate timing presenting means for automatically selecting a candidate timing of the interruption timing and performing control for presenting to the user an image of the virtual three-dimensional space photographed at the position and orientation of the virtual camera at the candidate timing.
The program according to claim 1, which causes the computer to function as a computer.
前記記録再開指示に応じて記録の開始を行う際に、前記計測データに基づく前記仮想カメラの位置および姿勢と、前記停止前のカメラワークデータに基づく前記中断タイミングでの前記仮想カメラの位置および姿勢との差が、所与のズレ条件を満たす場合に、ユーザに警告を行う警告制御手段、
として前記コンピュータを機能させるための請求項1〜6の何れか一項に記載のプログラム。
When recording is started in response to the recording restart instruction, the position and orientation of the virtual camera based on the measurement data, and the position and orientation of the virtual camera at the interruption timing based on the camera work data before the stop A warning control means for warning the user when the difference between
The program according to claim 1, which causes the computer to function as a computer.
携帯型のコンピュータが実行するカメラワークデータ生成方法であって、
仮想3次元空間を設定する仮想空間設定ステップと、
実空間における携帯型コンピュータの位置および姿勢を計測した計測データを取得する計測データ取得ステップと、
取得した計測データに基づいて、前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を連続的に制御する仮想カメラ制御ステップと、
連続的に制御された前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録するカメラワークデータ生成ステップと、
を含み、
前記カメラワークデータ生成ステップは、
所与の記録再開指示に応じて記録を開始した際の前記仮想カメラの位置および姿勢を、所与の記録停止指示による停止前のカメラワークデータの所与の中断タイミングにおける前記仮想カメラの位置および姿勢に適合させることで、前記記録再開指示後のカメラワークデータを、前記停止前のカメラワークデータの前記中断タイミング以降に引き続くカメラワークデータとして記録するステップを含む、
カメラワークデータ生成方法。
A camera work data generation method executed by a portable computer,
A virtual space setting step for setting a virtual three-dimensional space,
A measurement data acquisition step of acquiring measurement data obtained by measuring the position and orientation of the portable computer in the real space;
A virtual camera control step for continuously controlling the position and orientation of the virtual camera that captures the virtual three-dimensional space based on the acquired measurement data;
A camera work data generation step of recording camera work data capable of reproducing the position and orientation of the virtual camera in the continuously controlled virtual three-dimensional space;
Including
The camerawork data generation step,
The position and orientation of the virtual camera at the time of starting recording in response to a given recording restart instruction are defined as the position of the virtual camera at a given interruption timing of the camera work data before the stop by the given recording stop instruction and By adapting to the posture, the step of recording the camera work data after the recording restart instruction is recorded as camera work data that continues after the interruption timing of the camera work data before the stop,
Camera work data generation method.
携帯型の電子機器であって、
仮想3次元空間を設定する仮想空間設定手段と、
前記電子機器の実空間における位置および姿勢に基づいて、前記仮想3次元空間を撮影する仮想カメラの位置および姿勢を制御する仮想カメラ制御手段と、
前記仮想カメラ制御手段によって連続的に制御された前記仮想3次元空間中の前記仮想カメラの位置および姿勢を再現可能なカメラワークデータを記録するカメラワークデータ生成手段と、
を備え、
前記カメラワークデータ生成手段は、
所与の記録再開指示に応じて記録を開始した際の前記仮想カメラの位置および姿勢を、所与の記録停止指示による停止前のカメラワークデータの所与の中断タイミングにおける前記仮想カメラの位置および姿勢に適合させることで、前記記録再開指示後のカメラワークデータを、前記停止前のカメラワークデータの前記中断タイミング以降に引き続くカメラワークデータとして記録する手段、
を有する、
電子機器。
A portable electronic device,
Virtual space setting means for setting a virtual three-dimensional space,
Virtual camera control means for controlling the position and orientation of the virtual camera that captures the virtual three-dimensional space based on the position and orientation of the electronic device in the real space;
Camera work data generation means for recording camera work data capable of reproducing the position and orientation of the virtual camera in the virtual three-dimensional space continuously controlled by the virtual camera control means;
Equipped with
The camera work data generation means,
The position and orientation of the virtual camera at the time of starting recording in response to a given recording restart instruction are defined as the position of the virtual camera at a given interruption timing of the camera work data before the stop by the given recording stop instruction and A means for recording the camera work data after the recording restart instruction by adapting the posture as camera work data that continues after the interruption timing of the camera work data before the stop,
Has,
Electronics.
JP2019010523A 2019-01-24 2019-01-24 Program, camera work data generation method, and electronic apparatus Pending JP2020119335A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019010523A JP2020119335A (en) 2019-01-24 2019-01-24 Program, camera work data generation method, and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019010523A JP2020119335A (en) 2019-01-24 2019-01-24 Program, camera work data generation method, and electronic apparatus

Publications (1)

Publication Number Publication Date
JP2020119335A true JP2020119335A (en) 2020-08-06

Family

ID=71890901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019010523A Pending JP2020119335A (en) 2019-01-24 2019-01-24 Program, camera work data generation method, and electronic apparatus

Country Status (1)

Country Link
JP (1) JP2020119335A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6959422B1 (en) * 2020-10-22 2021-11-02 ヤフー株式会社 Transmission program, terminal device and transmission method
WO2024057650A1 (en) * 2022-09-13 2024-03-21 キヤノン株式会社 Electronic device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6959422B1 (en) * 2020-10-22 2021-11-02 ヤフー株式会社 Transmission program, terminal device and transmission method
JP2022068471A (en) * 2020-10-22 2022-05-10 ヤフー株式会社 Transmission program, terminal device and transmission method
WO2024057650A1 (en) * 2022-09-13 2024-03-21 キヤノン株式会社 Electronic device

Similar Documents

Publication Publication Date Title
CN107967706B (en) Multimedia data processing method and device and computer readable storage medium
JP7248437B2 (en) Programs, electronics and data recording methods
EP3540571B1 (en) Method and device for editing virtual scene, and non-transitory computer-readable storage medium
JP7043255B2 (en) Electronic devices and their control methods
JP5659304B2 (en) Image generating apparatus and image generating method
JP2011091571A (en) Moving image creation device and moving image creation method
JPWO2013069049A1 (en) Image generating apparatus and image generating method
JPWO2013069048A1 (en) Image generating apparatus and image generating method
WO2020000394A1 (en) Time-lapse photography control method and control device, imaging system, and storage medium
KR102477993B1 (en) Display control apparatus, imaging apparatus, control method, and computer readable medium
JP2020119335A (en) Program, camera work data generation method, and electronic apparatus
US20200252579A1 (en) Electronic apparatus recording medium, and display method
KR20140004224A (en) Image processing device
JP2023175782A (en) Program, electronic apparatus and server system
CN105763786B (en) A kind of information processing method and electronic equipment
JP2023027113A (en) Program, electronic apparatus and control method
JP2006318385A (en) Image generation system, program, and information storage medium
JP6803111B2 (en) Information processing equipment, information processing methods, programs
CN111432254B (en) Video information display method and device
JP2009060338A (en) Display device and electronic camera
JP2019061386A (en) Information processing system, information processing apparatus, information processing method and program
EP2713371A2 (en) Imaging device, image processing device, imaging method, image processing method, and computer program product
JP2016082356A (en) Electronic apparatus and program
JP6657929B2 (en) Portable device, system, control method, and program
WO2023275920A1 (en) Trigger signal generation device and mobile terminal

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210630