JP2020017176A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2020017176A
JP2020017176A JP2018141128A JP2018141128A JP2020017176A JP 2020017176 A JP2020017176 A JP 2020017176A JP 2018141128 A JP2018141128 A JP 2018141128A JP 2018141128 A JP2018141128 A JP 2018141128A JP 2020017176 A JP2020017176 A JP 2020017176A
Authority
JP
Japan
Prior art keywords
moving image
information processing
display control
control unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018141128A
Other languages
Japanese (ja)
Other versions
JP6999516B2 (en
Inventor
隆範 芦川
Takanori Ashikawa
隆範 芦川
智正 山下
Tomomasa Yamashita
智正 山下
山崎 裕司
Yuji Yamazaki
裕司 山崎
真以 駒野
Mai Komano
真以 駒野
善太郎 藤島
Zentaro Fujishima
善太郎 藤島
創造 浦上
Sozo Uragami
創造 浦上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2018141128A priority Critical patent/JP6999516B2/en
Publication of JP2020017176A publication Critical patent/JP2020017176A/en
Application granted granted Critical
Publication of JP6999516B2 publication Critical patent/JP6999516B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To display an image having a movement in accordance with the distance between a plurality of virtual objects.SOLUTION: Between AR marker groups having AR marker identification information related to one combination, a moving image corresponding to this set is superimposed. For example, a moving image is displayed on a virtual plane a formed of an AR marker M1 and an AR marker M2. This moving image is a moving image in which the state when an actual player corresponding to a character C1 superimposed on the AR marker M1 and an actual player corresponding to a character C2 superimposed on the AR marker M2 are playing in an actual space is recorded. The display size of this moving image is the size corresponding to the distance between the AR markers M1 and M2.SELECTED DRAWING: Figure 9

Description

本発明は、撮像画像に画像を重畳表示するための技術に関する。   The present invention relates to a technique for superimposing and displaying an image on a captured image.

いわゆるAR(拡張現実)は、現実空間に対して情報の付加・削除・強調・減衰を行うことで、人間が見た現実の世界を拡張するものである。例えば特許文献1には、2枚のゲームカードを接触させると、キャラクタ同士の間に仮想オブジェクトが表示されることが記載されている。さらに、これらのゲームカード同士を離すことにより、仮想オブジェクトが伸びるように表現され、ゲームカード同士を近づけることにより、仮想オブジェクトが縮むように表現されることが記載されている。   The so-called AR (augmented reality) extends the real world as seen by humans by adding, deleting, emphasizing, and attenuating information in the real space. For example, Patent Literature 1 describes that when two game cards are brought into contact, a virtual object is displayed between the characters. Furthermore, it is described that when the game cards are separated from each other, the virtual object is expressed so as to extend, and when the game cards are close to each other, the virtual object is expressed so as to be contracted.

特開2006−72668号公報JP 2006-72668 A

このARを楽曲再生に利用することが考えられている。例えば、実オブジェクトとしてのARマーカを撮像すると、楽曲演奏を行うキャラクタを仮想オブジェクトとしてその撮像画像に重畳して表示するといった具合である。このような動きのある仮想オブジェクトを表示する場合に、例えば複数の仮想オブジェクトに応じた動きのある画像を重畳表示することができれば、ユーザにとって面白いサービスを提供し得る可能性がある。   It is considered that this AR is used for music reproduction. For example, when an AR marker as a real object is imaged, a character performing a music performance is displayed as a virtual object superimposed on the captured image. When displaying such a moving virtual object, for example, if a moving image corresponding to a plurality of virtual objects can be superimposed and displayed, there is a possibility that an interesting service for a user may be provided.

そこで、本発明は、複数の仮想オブジェクト間の距離に応じて、動きのある画像を表示し得る仕組みを提供することを目的とする。   Therefore, an object of the present invention is to provide a mechanism capable of displaying a moving image according to the distance between a plurality of virtual objects.

上記課題を解決するため、本発明は、撮像画像を取得する取得部と、前記取得部により取得された撮像画像において、識別情報が記された実オブジェクトを検出する検出部と、前記検出部により複数の前記実オブジェクトが検出された場合に、当該複数の前記実オブジェクト間の距離を算出する算出部と、前記検出部により検出された前記実オブジェクトの識別情報に対応する仮想オブジェクトを前記撮像画像に重畳表示させる表示制御部であって、前記検出部により複数の前記実オブジェクトが検出された場合には、前記算出部により算出された距離に応じた態様の動画を前記撮像画像に重畳表示させる表示制御部とを備えることを特徴とする情報処理装置を提供する。   In order to solve the above-described problem, the present invention provides an acquisition unit that acquires a captured image, a detection unit that detects a real object on which identification information is written in the captured image acquired by the acquisition unit, A calculating unit that calculates a distance between the plurality of real objects when a plurality of the real objects are detected, and a virtual object corresponding to the identification information of the real object detected by the detecting unit, A display control unit configured to superimpose and display a moving image in a mode corresponding to the distance calculated by the calculation unit on the captured image when the detection unit detects the plurality of real objects. An information processing apparatus comprising: a display control unit.

前記表示制御部は、動作を行う前記仮想オブジェクトを重畳表示させるとともに、当該仮想オブジェクトの動作に連動する前記動画を重畳表示させるようにしてもよい。   The display control unit may superimpose the virtual object performing the operation and superimpose the moving image in conjunction with the operation of the virtual object.

前記表示制御部は、演奏動作を行う前記仮想オブジェクトを重畳表示させるとともに、当該仮想オブジェクトの演奏動作に対応する演奏動作を行う演奏者を収録した前記動画を重畳表示させるようにしてもよい。   The display control unit may superimpose and display the virtual object performing the performance operation, and superimpose and display the moving image including a player performing the performance operation corresponding to the performance operation of the virtual object.

前記表示制御部は、前記算出部により算出された距離に応じた大きさの前記動画を重畳表示させるようにしてもよい。   The display control unit may superimpose and display the moving image having a size corresponding to the distance calculated by the calculation unit.

前記表示制御部は、前記算出部により算出された距離に応じた内容の前記動画を重畳表示させるようにしてもよい。   The display control unit may superimpose and display the moving image having contents corresponding to the distance calculated by the calculation unit.

前記表示制御部は、複数の前記実オブジェクトを結ぶ線分上において、当該線分の方向に応じた向きの仮想平面に前記動画を重畳表示させるようにしてもよい。   The display control unit may superimpose and display the moving image on a virtual plane in a direction corresponding to the direction of the line segment on a line segment connecting the plurality of real objects.

前記表示制御部は、前記撮像画像を閲覧するユーザの視線方向に応じた向きの仮想平面に前記動画を重畳表示させるようにしてもよい。   The display control unit may superimpose and display the moving image on a virtual plane in a direction corresponding to a viewing direction of a user who views the captured image.

前記表示制御部は、前記撮像画像を閲覧するユーザにより所定の操作が行われた場合には、前記複数の実オブジェクトのうちいずれか一方の実オブジェクトが移動させられて当該複数の前記実オブジェクト間の距離が変更した場合であっても、前記動画の表示の態様を変更しないようにしてもよい。   When a predetermined operation is performed by a user who browses the captured image, one of the plurality of real objects is moved, and the display control unit moves between the plurality of real objects. Even if the distance of the moving image changes, the display mode of the moving image may not be changed.

前記表示制御部は、前記検出部により検出された複数の前記実オブジェクトの識別情報の組み合わせに応じた態様の前記動画を重畳表示させるようにしてもよい。   The display control unit may superimpose and display the moving image in a mode corresponding to a combination of the identification information of the plurality of real objects detected by the detection unit.

前記表示制御部は、前記検出部により検出された複数の前記実オブジェクトのうちいずれか一方の識別情報に対応する仮想オブジェクトの位置に応じた態様の前記動画を重畳表示させるようにしてもよい。   The display control unit may superimpose and display the moving image in a mode corresponding to a position of a virtual object corresponding to one of the plurality of real objects detected by the detection unit.

また、本発明は、撮像画像を取得する取得ステップと、前記取得ステップにおいて取得された撮像画像において、識別情報が記された実オブジェクトを検出する検出ステップと、前記検出ステップにおいて複数の前記実オブジェクトが検出された場合に、当該複数の前記実オブジェクト間の距離を算出する算出ステップと、前記検出ステップにおいて検出された前記実オブジェクトの識別情報に対応する仮想オブジェクトを前記撮像画像に重畳表示させる表示制御ステップであって、前記検出ステップにおいて複数の前記実オブジェクトが検出された場合には、前記算出ステップにおいて算出された距離に応じた態様の動画を前記撮像画像に重畳表示させる表示制御ステップとを備えることを特徴とする情報処理方法を提供する。   The present invention also provides an acquisition step of acquiring a captured image, a detection step of detecting a real object with identification information written in the captured image acquired in the acquisition step, and a plurality of the real objects in the detection step. Calculating a distance between the plurality of real objects, and displaying a virtual object corresponding to the identification information of the real object detected in the detecting step on the captured image in a superimposed manner. A control step, wherein when the plurality of real objects are detected in the detection step, a display control step of superimposing and displaying a moving image in a mode corresponding to the distance calculated in the calculation step on the captured image. An information processing method characterized by comprising:

また、本発明は、コンピュータに、撮像画像を取得する取得ステップと、前記取得ステップにおいて取得された撮像画像において、識別情報が記された実オブジェクトを検出する検出ステップと、前記検出ステップにおいて複数の前記実オブジェクトが検出された場合に、当該複数の前記実オブジェクト間の距離を算出する算出ステップと、前記検出ステップにおいて検出された前記実オブジェクトの識別情報に対応する仮想オブジェクトを前記撮像画像に重畳表示させる表示制御ステップであって、前記検出ステップにおいて複数の前記実オブジェクトが検出された場合には、前記算出ステップにおいて算出された距離に応じた態様の動画を前記撮像画像に重畳表示させる表示制御ステップとを実行させるためのプログラムを提供する。   The present invention also provides a computer with an acquisition step of acquiring a captured image, a detection step of detecting a real object with identification information in the captured image acquired in the acquisition step, A step of calculating a distance between the plurality of real objects when the real object is detected; and superimposing a virtual object corresponding to the identification information of the real object detected in the detection step on the captured image. A display control step of displaying the moving image in a manner corresponding to the distance calculated in the calculating step when the plurality of real objects are detected in the detecting step; And a program for executing the steps.

本発明によれば、複数の仮想オブジェクト間の距離に応じて、動きのある画像を表示することが可能となる。   According to the present invention, it is possible to display a moving image in accordance with the distance between a plurality of virtual objects.

本発明の一実施形態に係る情報処理システムの構成を例示する図である。1 is a diagram illustrating a configuration of an information processing system according to an embodiment of the present invention. 撮像表示装置のハードウェア構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a hardware configuration of the imaging display device. 情報処理装置のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a hardware configuration of an information processing device. 情報処理装置に記憶されている画像データベースの一例を示す図である。FIG. 4 is a diagram illustrating an example of an image database stored in the information processing device. 情報処理装置に記憶されている表示サイズテーブルの一例を示す図である。FIG. 9 is a diagram illustrating an example of a display size table stored in the information processing device. 情報処理システムの機能構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a functional configuration of the information processing system. 情報処理装置の動作の一例を示すフローチャートである。9 is a flowchart illustrating an example of an operation of the information processing device. 撮像表示装置における表示例を示す図である。It is a figure showing the example of a display in an image pick-up display. 撮像表示装置における表示例を示す図である。It is a figure showing the example of a display in an image pick-up display.

[構成]
図1は、本実施形態の情報処理システム1の一例を示す図である。情報処理システム1は、いわゆるAR(拡張現実)を実現するための処理を行う情報処理装置10と、画像の撮像及び表示を行う撮像表示装置20と、これら情報処理装置10及び撮像表示装置20を通信可能に接続するネットワーク90とを備えている。ネットワーク90は、例えばLAN(Local Area Network)又はWAN(Wide Area Network)、若しくはこれらの組み合わせであり、有線区間又は無線区間を含んでいる。なお、図1には、情報処理装置10及び撮像表示装置20を1つずつ示しているが、これらはそれぞれ複数であってもよい。
[Constitution]
FIG. 1 is a diagram illustrating an example of an information processing system 1 according to the present embodiment. The information processing system 1 includes an information processing apparatus 10 that performs processing for realizing a so-called AR (augmented reality), an imaging display apparatus 20 that captures and displays an image, and an information processing apparatus 10 and an imaging display apparatus 20. And a network 90 communicably connected. The network 90 is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network), or a combination thereof, and includes a wired section or a wireless section. Although FIG. 1 shows one information processing device 10 and one imaging display device 20, each of them may be plural.

情報処理装置10は、撮像表示装置20によって撮像された現実空間の撮像画像を取得し、その現実空間に対して付加的な画像を重畳した状態で表示するよう、撮像表示装置20を制御する。具体的には、情報処理装置10は、撮像表示装置20によって撮像された現実空間の撮像画像において、ARマーカと呼ばれる実オブジェクトを検出し、その実オブジェクトに対応する仮想オブジェクトを現実空間に重畳した状態で撮像表示装置20に表示させる。さらに、情報処理装置10は、撮像表示装置20によって撮像された現実空間の撮像画像において、複数の実オブジェクト同士の距離に応じた態様の動画を現実空間に重畳した状態で撮像表示装置20に表示させる。   The information processing device 10 controls the imaging display device 20 so as to acquire a captured image of the real space captured by the imaging display device 20, and to display the additional image superimposed on the real space. Specifically, the information processing device 10 detects a real object called an AR marker in a captured image of the real space captured by the imaging display device 20, and superimposes a virtual object corresponding to the real object on the real space. Is displayed on the imaging display device 20. Further, the information processing apparatus 10 displays a moving image in a mode corresponding to the distance between a plurality of real objects on the image display device 20 in a state of being superimposed on the real space in the image of the real space imaged by the image display device 20. Let it.

ここで、ARマーカとは、ARにおいて現実空間に重畳表示する画像及びその位置を指定するための識別情報が記された標識のことである。この識別情報は、図形や文字等によってARマーカに記されているが、よく用いられるのは白黒の図形やQRコード(登録商標)などである。本実施形態では、円形の媒体に白黒の図形が記されたARマーカを用いるが、その形状や大きさ、そして識別情報の表現形式はどのようなものであってもよい。仮想オブジェクトがARマーカに重畳した状態で表示されるので、ユーザから見ると、あたかも現実空間に仮想オブジェクトが存在しているように感じられる。仮想オブジェクトは、ARオブジェクトとも呼ばれる。   Here, the AR marker is a sign on which an image to be superimposed and displayed in the real space in the AR and identification information for designating the position are written. The identification information is described on the AR marker by a graphic, a character, or the like, but frequently used is a monochrome graphic, a QR code (registered trademark), or the like. In the present embodiment, an AR marker in which a black-and-white figure is written on a circular medium is used, but the shape, size, and expression format of the identification information may be any. Since the virtual object is displayed in a state of being superimposed on the AR marker, the user feels as if the virtual object exists in the real space. Virtual objects are also called AR objects.

なお、本実施形態では、撮像表示装置20が情報処理装置10の制御下で画像を表示するという、より複雑な例で説明するが、このような例に限定されず、撮像表示装置20が情報処理装置10の制御を受けずに単体で画像表示に関する動作を行ってもよい。つまり、撮像表示装置20は、自装置の撮像部206が撮像した現実空間の撮像画像において、複数のARマーカを検出し、その実オブジェクト同士の距離に応じた態様の動画を現実空間に重畳した状態で表示部207に表示させるようにしてもよい。   In the present embodiment, a more complicated example in which the imaging display device 20 displays an image under the control of the information processing device 10 will be described. However, the present invention is not limited to such an example. The operation related to image display may be performed alone without receiving the control of the processing device 10. That is, the imaging display device 20 detects a plurality of AR markers in a captured image of the real space captured by the imaging unit 206 of the own device, and superimposes a moving image in a mode corresponding to the distance between the real objects on the real space. May be displayed on the display unit 207.

図2は、撮像表示装置20のハードウェア構成を例示する図である。撮像表示装置20は、例えばグラス型、ヘッドマウントディスプレイ型又はコンタクトレンズ型のウェアラブルコンピュータ、或いは、スマートフォン又はタブレットなどの情報処理装置である。ARを実現する装置として、現実空間の撮像画像を表示する表示面において仮想オブジェクトをその撮像画像に重畳して表示するタイプと、ユーザの眼の前に配置された光透過型の表示面において、ユーザから表示面を介して見える現実空間の所定の位置に重なる表示面上の位置に仮想オブジェクトを表示するタイプとがある。本実施形態に係る撮像表示装置20はいずれのタイプであってもよく、仮想オブジェクトを現実空間に重畳表示する装置として機能する。   FIG. 2 is a diagram illustrating a hardware configuration of the imaging display device 20. The imaging display device 20 is, for example, a glass-type, head-mount display-type, or contact lens-type wearable computer, or an information processing device such as a smartphone or a tablet. As a device for realizing AR, a type in which a virtual object is superimposed on a captured image in a display surface for displaying a captured image in a real space and a light transmission type display surface arranged in front of a user's eyes, There is a type in which a virtual object is displayed at a position on a display surface that overlaps a predetermined position in a real space that is visible through a display surface to a user. The imaging display device 20 according to the present embodiment may be of any type, and functions as a device that superimposes and displays a virtual object on a real space.

撮像表示装置20は、CPU201(Central Processing Unit)、ROM(Read Only Memory)202、RAM(Random Access Memory)203、補助記憶装置204、通信IF205、撮像部206、表示部207及び操作部208を有する。   The imaging display device 20 includes a CPU 201 (Central Processing Unit), a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an auxiliary storage device 204, a communication IF 205, an imaging unit 206, a display unit 207, and an operation unit 208. .

CPU201は、各種の演算を行うプロセッサである。ROM202は、例えば撮像表示装置20の起動に用いられるプログラム及びデータを記憶した不揮発性メモリである。RAM203は、CPU201がプログラムを実行する際のワークエリアとして機能する揮発性メモリである。補助記憶装置204は、例えばHDD(Hard Disk Drive)又はSSD(Solid State Drive)などの不揮発性の記憶装置であり、撮像表示装置20において用いられるプログラム及びデータを記憶する。CPU201がこのプログラムを実行することにより撮像表示装置20はコンピュータ装置として機能する。通信IF205は、所定の通信規格に従ってネットワーク90を介した通信を行うためのインターフェースである。この通信規格は、無線通信の規格であってもよいし、有線通信の規格であってもよい。無線の場合、通信IF205は、例えばLTE(Long Term Evolution)又はWi−Fi(登録商標)等の通信規格で動作するアンテナ及び通信回路を備えている。撮像部206はレンズ及び光学素子を含み、撮像した画像を示す撮像画像データを生成する。表示部207は、例えば液晶パネル及び液晶駆動回路などを含み、画像データに応じた画像を表示する。操作部208は、例えばキーやタッチセンサなどの操作子を含み、ユーザの操作を受け付けてその操作に応じた信号をCPU201に供給する。なお、撮像表示装置20は、図2に例示した構成以外に、例えばGPS(Global Positioning System)ユニットや音声入出力部などの他の構成を含んでいてもよい。   The CPU 201 is a processor that performs various operations. The ROM 202 is a non-volatile memory that stores, for example, a program and data used to start the imaging display device 20. The RAM 203 is a volatile memory that functions as a work area when the CPU 201 executes a program. The auxiliary storage device 204 is a non-volatile storage device such as a hard disk drive (HDD) or a solid state drive (SSD), and stores programs and data used in the imaging display device 20. When the CPU 201 executes the program, the imaging display device 20 functions as a computer device. The communication IF 205 is an interface for performing communication via the network 90 according to a predetermined communication standard. This communication standard may be a wireless communication standard or a wired communication standard. In the case of wireless communication, the communication IF 205 includes an antenna and a communication circuit that operate according to a communication standard such as LTE (Long Term Evolution) or Wi-Fi (registered trademark). The imaging unit 206 includes a lens and an optical element, and generates captured image data indicating a captured image. The display unit 207 includes, for example, a liquid crystal panel and a liquid crystal driving circuit, and displays an image according to the image data. The operation unit 208 includes, for example, an operation element such as a key and a touch sensor, receives an operation by the user, and supplies a signal corresponding to the operation to the CPU 201. Note that the imaging display device 20 may include other components such as a GPS (Global Positioning System) unit and an audio input / output unit in addition to the configuration illustrated in FIG.

図3は、情報処理装置10のハードウェア構成を例示する図である。情報処理装置10は、CPU101、ROM102、RAM103、補助記憶装置104、及び通信IF105を有するコンピュータ装置である。CPU101は、各種の演算を行うプロセッサである。ROM102は、例えば情報処理装置10の起動に用いられるプログラム及びデータを記憶した不揮発性メモリである。RAM103は、CPU101がプログラムを実行する際のワークエリアとして機能する揮発性メモリある。補助記憶装置104は、例えばHDD又はSSDなどの不揮発性の記憶装置であり、情報処理装置10において用いられるプログラム及びデータを記憶する。CPU101がこのプログラムを実行することにより、後述する図6に示される機能が実現される。通信IF105は、所定の通信規格に従ってネットワーク90を介した通信を行うためのインターフェースである。情報処理装置10は、図3に例示した構成以外に、例えば表示部や操作部などの他の構成を含んでいてもよい。   FIG. 3 is a diagram illustrating a hardware configuration of the information processing apparatus 10. The information processing device 10 is a computer device having a CPU 101, a ROM 102, a RAM 103, an auxiliary storage device 104, and a communication IF 105. The CPU 101 is a processor that performs various operations. The ROM 102 is a non-volatile memory that stores, for example, a program and data used for activating the information processing device 10. The RAM 103 is a volatile memory that functions as a work area when the CPU 101 executes a program. The auxiliary storage device 104 is a nonvolatile storage device such as an HDD or an SSD, and stores programs and data used in the information processing device 10. When the CPU 101 executes this program, a function shown in FIG. 6 described later is realized. The communication IF 105 is an interface for performing communication via the network 90 according to a predetermined communication standard. The information processing apparatus 10 may include other components such as a display unit and an operation unit, in addition to the configuration illustrated in FIG.

補助記憶装置104は、画像データベース(以下、データベースをDBと省略する)と表示サイズテーブルとを記憶している。図4は、画像DBの一例を示す図である。画像DBには、ARマーカに記された識別情報(ARマーカ識別情報)と、そのARマーカに重畳表示するキャラクタを撮像表示装置20において再生するためのデータ(キャラクタ再生データ)と、複数(本実施形態では2つ)のARマーカの組み合わせに対して決められた動画を撮像表示装置20において再生するためのデータ(動画再生データ)とが対応付けられている。例えばARマーカ識別情報「ID001」が記されたARマーカに対しては、「C001」というデータ名のキャラクタ再生データによって示されるキャラクタが重畳表示される。また、例えばARマーカ識別情報「ID002」が記されたARマーカに対しては、「C002」というデータ名のキャラクタ再生データによって示されるキャラクタが重畳表示される。ここでいうキャラクタは、例えば楽曲を演奏する集団(バンド)を構成する各メンバーの外観を模したものである。キャラクタ再生データは、画像データ及び音声データを含んでいる。キャラクタ再生データが撮像表示装置20において再生されると、キャラクタが楽曲を演奏する動作を行っているように表示され、且つ、その演奏による楽曲の音声が出力される。   The auxiliary storage device 104 stores an image database (hereinafter, the database is abbreviated as DB) and a display size table. FIG. 4 is a diagram illustrating an example of the image DB. The image DB includes identification information (AR marker identification information) written on the AR marker, data (character reproduction data) for reproducing a character superimposed and displayed on the AR marker in the imaging display device 20, and a plurality of (character reproduction data). In the embodiment, data (moving image reproduction data) for reproducing the moving image determined for the combination of the two AR markers on the imaging and display device 20 is associated with the combination. For example, a character indicated by character reproduction data having a data name of “C001” is superimposed and displayed on an AR marker on which AR marker identification information “ID001” is described. For example, a character indicated by character reproduction data having a data name of “C002” is superimposed on an AR marker on which AR marker identification information “ID002” is described. The character referred to here simulates, for example, the appearance of each member constituting a group (band) playing music. The character reproduction data includes image data and audio data. When the character reproduction data is reproduced on the imaging display device 20, it is displayed as if the character is performing a music operation, and the sound of the music resulting from the performance is output.

ARマーカ識別情報「ID001」及びARマーカ識別情報「ID002」は1つの組を構成しており、また、ARマーカ識別情報「ID003」及びARマーカ識別情報「ID004」は上記とは別の1つの組を構成している。1つの組み合わせに係るARマーカ識別情報が記されたARマーカ群の各々は、或る楽曲を演奏する集団(バンド)を構成するメンバーのそれぞれに対応している。例えばARマーカ識別情報「ID001」及び「ID002」の組み合わせに対応する「C001」というキャラクタ再生データによって、或る楽曲についてギター演奏を行うキャラクタが再生され、また、「C002」というキャラクタ再生データによって、上記楽曲についてボーカル演奏を行うキャラクタが再生されるといった具合である。   The AR marker identification information “ID001” and the AR marker identification information “ID002” constitute one set, and the AR marker identification information “ID003” and the AR marker identification information “ID004” are one other than the above. Make up a set. Each of the AR marker groups in which AR marker identification information related to one combination is described corresponds to each of the members constituting a group (band) playing a certain music. For example, a character playing a guitar for a certain piece of music is reproduced by character reproduction data “C001” corresponding to a combination of AR marker identification information “ID001” and “ID002”, and character reproduction data “C002” For example, a character performing a vocal performance for the music is reproduced.

また、1つの組み合わせに係るARマーカ群の各々によって再生される楽曲は同期している。例えば「C001」というキャラクタ再生データによってギター演奏を行うキャラクタの動き及び音声と、「C002」というキャラクタ再生データによってボーカル演奏を行うキャラクタの動き及び音声とは、楽曲演奏の進行において同期した状態で再生される。つまり、これらのキャラクタが1つの楽曲をそれぞれのパートにおいて同時に演奏しているように再生される。この同期再生のために、キャラクタ再生データ「C001」及びキャラクタ再生データ「C002」には共通のタイムコードが含まれており、これらのデータはこのタイムコードに従って同期した状態で再生される。   Also, the music played by each of the AR marker groups related to one combination is synchronized. For example, the movement and voice of a character performing a guitar performance based on the character reproduction data “C001” and the motion and voice of a character performing a vocal performance based on the character reproduction data “C002” are reproduced in synchronization with the progress of the music performance. Is done. In other words, these characters are reproduced as if they were playing one piece of music in each part at the same time. For the synchronous reproduction, the character reproduction data “C001” and the character reproduction data “C002” include a common time code, and these data are reproduced in a synchronized state according to the time code.

さらに、1つの組み合わせに係るARマーカの間には、この組に対応する動画再生データによって動画が重畳表示される。例えばARマーカ識別情報「ID001」が記されたARマーカとARマーカ識別情報「ID002」が記されたARマーカとの間には、「A001」というデータ名の動画再生データが示す動画が重畳表示される。この動画は、「C001」というキャラクタ再生データによって示されるキャラクタに対応する現実の演奏者(バンドのメンバー)と、「C002」というキャラクタ再生データによって示されるキャラクタに対応する現実の演奏者(バンドのメンバー)とが現実空間のライブやコンサートで演奏しているときの様子を収録した動画である。つまり、動画再生データは画像データ及び音声データを含む。さらに、1つの組み合わせに係るARマーカの各々において再生される楽曲と、これらのARマーカ間に重畳表示される動画とは同期(つまり連動)している。例えばARマーカ識別情報「ID001」及び「ID002」の組み合わせに対応する「C001」というキャラクタ再生データによって再生される、ギター演奏を行うキャラクタの動き及び音声と、「C002」というキャラクタ再生データによって再生される、ボーカル演奏を行うキャラクタの動き及び音声と、「A001」という動画再生データによって再生される、現実の演奏者が現実空間で演奏しているときの動き及び音声とが同期した状態で再生される。つまり、撮像表示装置20において、各キャラクタが1つの楽曲を同時にそれぞれのパートで演奏しているように再生されるとともに、その演奏中の収録動画がキャラクタの演奏動作と同期した状態で再生される。この同期再生のために、キャラクタ再生データ「C001」、キャラクタ再生データ「C002」及び動画再生データ「A001」には共通のタイムコードが含まれており、これらのデータはこのタイムコードに従って同期した状態で再生される。   Further, between AR markers of one combination, a moving image is superimposed and displayed by moving image reproduction data corresponding to this combination. For example, the moving image indicated by the moving image reproduction data having the data name “A001” is superimposed and displayed between the AR marker with the AR marker identification information “ID001” and the AR marker with the AR marker identification information “ID002”. Is done. This moving image includes a real player (a member of the band) corresponding to the character indicated by the character reproduction data “C001” and a real player (a band member) corresponding to the character indicated by the character reproduction data “C002”. Members) are performing at live concerts and concerts in the real space. That is, the moving image reproduction data includes image data and audio data. Further, the music reproduced at each of the AR markers according to one combination and the moving image superimposed and displayed between these AR markers are synchronized (that is, linked). For example, the movement and voice of the character performing the guitar playing and the character reproduction data of "C002" are reproduced by the character reproduction data of "C001" corresponding to the combination of the AR marker identification information "ID001" and "ID002". The motion and voice of the character performing the vocal performance are reproduced in synchronization with the motion and voice of the real player playing in the real space, which is reproduced by the moving image reproduction data “A001”. You. In other words, in the imaging display device 20, each character is played as if it were playing one piece of music at the same time in each part, and the recorded moving image being played is played back in synchronization with the performance operation of the character. . For this synchronous reproduction, the character reproduction data “C001”, the character reproduction data “C002”, and the moving image reproduction data “A001” include a common time code, and these data are synchronized according to this time code. Will be played back.

Figure 2020017176
Figure 2020017176

図6は、情報処理システム1の機能構成の一例を示すブロック図である。図6に示すように、情報処理装置10においては、取得部11と、検出部12と、算出部13と、表示制御部14という機能が実現される、取得部11は、撮像表示装置20の撮像部206から通信IF205を介して撮像画像を取得する。検出部12は、取得部11により取得された撮像画像においてARマーカを検出する。算出部13は、検出部12により複数のARマーカが検出された場合に、当該複数のARマーカ間の距離を算出する。表示制御部14は、撮像表示装置20の表示部207に対して通信IF205経由で表示制御を行うことで、検出部12により検出されたARマーカのARマーカ識別情報に対応するキャラクタを撮像画像に重畳表示させる。さらに、表示制御部14は、検出部12により複数のARマーカが検出された場合には、算出部13により算出された距離に応じた態様の動画を撮像画像に重畳表示させる。   FIG. 6 is a block diagram illustrating an example of a functional configuration of the information processing system 1. As illustrated in FIG. 6, in the information processing apparatus 10, functions of an acquisition unit 11, a detection unit 12, a calculation unit 13, and a display control unit 14 are realized. A captured image is obtained from the imaging unit 206 via the communication IF 205. The detection unit 12 detects an AR marker in the captured image acquired by the acquisition unit 11. The calculating unit 13 calculates a distance between the plurality of AR markers when the detecting unit 12 detects the plurality of AR markers. The display control unit 14 performs display control on the display unit 207 of the imaging and display device 20 via the communication IF 205 to convert a character corresponding to the AR marker identification information of the AR marker detected by the detection unit 12 into a captured image. Display is superimposed. Further, when the detection unit 12 detects a plurality of AR markers, the display control unit 14 superimposes and displays a moving image in a mode corresponding to the distance calculated by the calculation unit 13 on the captured image.

なお、前述したとおり本実施形態では、撮像表示装置20が情報処理装置10の制御下で画像を表示する例で説明するため、その機能構成は図6のようになる。ただし、前述したように、本発明においては、撮像表示装置20が情報処理装置10の制御を受けずに単体で画像表示に関する動作を行ってもよい。この場合は、撮像表示装置20が、撮像部206から撮像画像を取得する取得部11と、取得部11により取得された撮像画像においてARマーカを検出する検出部12と、検出部12により複数のARマーカが検出された場合に、当該複数のARマーカ間の距離を算出する算出部13と、検出部12により検出されたARマーカのARマーカ識別情報に対応するキャラクタを、表示部207を制御して撮像画像に重畳表示させる表示制御部14であって、検出部12により複数のARマーカが検出された場合には、算出部13により算出された距離に応じた態様の動画を撮像画像に重畳表示させる表示制御部14という機能を実現することになる。   As described above, in the present embodiment, an example in which the imaging display device 20 displays an image under the control of the information processing device 10 will be described. Therefore, the functional configuration is as shown in FIG. However, as described above, in the present invention, the imaging display device 20 may perform an operation related to image display alone without being controlled by the information processing device 10. In this case, the imaging and display device 20 includes a plurality of acquisition units 11 that acquire a captured image from the imaging unit 206, a detection unit 12 that detects an AR marker in the captured image acquired by the acquisition unit 11, and a plurality of detection units 12. When an AR marker is detected, the calculation unit 13 that calculates the distance between the plurality of AR markers and the character corresponding to the AR marker identification information of the AR marker detected by the detection unit 12 are controlled by the display unit 207. A display control unit 14 that superimposes and displays the captured image on the captured image. When the detection unit 12 detects a plurality of AR markers, a moving image in a mode corresponding to the distance calculated by the calculation unit 13 is added to the captured image. The function of the display control unit 14 for superimposed display is realized.

[動作]
図7〜図9を参照して、情報処理装置10の動作例について説明する。まず、ユーザは、ARマーカを机や台の上に置き、撮像表示装置20の撮像部206を起動する。これにより、ARマーカを含む空間の撮像が開始される。撮像部206によって撮像された撮像画像データは、通信IF205からネットワーク90経由で情報処理装置10に送信される。
[motion]
An operation example of the information processing apparatus 10 will be described with reference to FIGS. First, the user places the AR marker on a desk or a table, and activates the imaging unit 206 of the imaging display device 20. Thus, imaging of the space including the AR marker is started. The captured image data captured by the imaging unit 206 is transmitted from the communication IF 205 to the information processing device 10 via the network 90.

情報処理装置10の取得部11が撮像画像データを取得すると(図7、ステップS11)、検出部12は、その撮像画像データについてパターンマッチング等の画像認識処理を行ってARマーカの検出を試み、撮像画像にARマーカが含まれるか否かを判断する(ステップS12)。   When the acquisition unit 11 of the information processing apparatus 10 acquires captured image data (FIG. 7, step S11), the detection unit 12 performs image recognition processing such as pattern matching on the captured image data to try to detect an AR marker, It is determined whether an AR marker is included in the captured image (step S12).

撮像画像にARマーカが含まれていれば(ステップS12;YES)、表示制御部14は、認識したARマーカのARマーカ識別情報に対応するキャラクタ再生データを補助記憶装置104から読み出し、読み出したキャラクタ再生データを、その表示位置(例えばARマーカ上の所定の位置)を指定して撮像表示装置20に送信し、キャラクタを表示させる(ステップS13)。   If the captured image includes the AR marker (Step S12; YES), the display control unit 14 reads the character reproduction data corresponding to the AR marker identification information of the recognized AR marker from the auxiliary storage device 104, and reads the read character. The reproduction data is transmitted to the imaging display device 20 by specifying its display position (for example, a predetermined position on the AR marker), and the character is displayed (step S13).

そして、ユーザが撮像表示装置20において所定の再生操作を行うと(ステップS14;YES)、その旨が情報処理装置10に通知される。この通知に応答して、情報処理装置10の表示制御部14がキャラクタ再生データを再生するよう、撮像表示装置20に指示する。これにより、撮像表示装置20において、キャラクタ再生データに従い楽曲の再生とキャラクタの動作に関する再生制御が開始される(ステップS15)。   Then, when the user performs a predetermined reproduction operation on the imaging display device 20 (step S14; YES), the fact is notified to the information processing device 10. In response to this notification, the display control unit 14 of the information processing device 10 instructs the imaging display device 20 to reproduce the character reproduction data. As a result, in the imaging display device 20, reproduction control of the reproduction of the music and the operation of the character is started according to the character reproduction data (step S15).

Figure 2020017176
Figure 2020017176

Figure 2020017176
Figure 2020017176

以上説明した実施形態によれば、複数のARマーカ間の距離に応じた大きさの動画を表示することが可能となる。各ARマーカに対しては、バンドメンバーに対応する各キャラクタが1つの楽曲を同時にそれぞれのパートで演奏しているように重畳表示されるとともに、現実空間でその演奏を収録した動画がキャラクタの演奏と同期した状態で重畳表示される。これにより、ユーザが面白みを感じられるようなサービスを提供することができる。   According to the embodiment described above, a moving image having a size corresponding to the distance between a plurality of AR markers can be displayed. For each AR marker, each character corresponding to the band member is superimposed and displayed as if a single piece of music is being played in each part at the same time, and a video recording the performance in real space is played by the character. Is superimposed and displayed in synchronization with. This makes it possible to provide a service that makes the user feel interesting.

[変形例]
本発明は、上述した実施形態に限定されない。上述した実施形態を以下のように変形してもよい。また、以下の2つ以上の変形例を組み合わせて実施してもよい。
[変形例1]
上述した実施形態において、表示制御部14は、演奏動作を行うキャラクタを現実空間に重畳表示させるとともに、当該キャラクタの演奏動作に対応する演奏動作を行う現実の演奏者を収録した動画を現実空間に重畳表示させていた。表示対象はこの例に限定されるわけではない。例えば、表示制御部14は、何らかの動作を行う仮想オブジェクトを現実空間に重畳表示させるとともに、当該仮想オブジェクトの動作に連動する動画を現実空間に重畳表示させるようにしてもよい。また、仮想オブジェクトは何らかの動作を行わなくてもよい。要するに、表示制御部14は、複数の実オブジェクトが検出された場合に、その実オブジェクト間の距離に応じた態様の動画を撮像画像に重畳表示させるようにすればよい。
[Modification]
The invention is not limited to the embodiments described above. The embodiment described above may be modified as follows. Further, two or more of the following modifications may be combined.
[Modification 1]
In the above-described embodiment, the display control unit 14 superimposes and displays a character performing a performance operation in the real space, and also displays a moving image containing a real player performing the performance operation corresponding to the performance operation of the character in the real space. It was superimposed. The display target is not limited to this example. For example, the display control unit 14 may superimpose a virtual object that performs some operation in the real space and superimpose a moving image that is linked to the operation of the virtual object in the real space. The virtual object does not need to perform any operation. In short, when a plurality of real objects are detected, the display control unit 14 may superimpose a moving image in a mode corresponding to the distance between the real objects on the captured image.

[変形例2]
表示制御部14は、実オブジェクト間の距離に応じた態様の動画を重畳表示させるようにすればよい。この態様とは、実施形態では動画の表示サイズであったが、例えば距離に応じた動画の内容であってもよい。例えばARマーカ間の距離が閾値以下の場合は、バンドを構成するメンバーのうち特定のメンバーの演奏行為を主に被写体として収録した動画を表示し、ARマーカ間の距離が閾値を超えるとそのバンド全員の演奏風景を俯瞰する撮影位置から収録した動画を表示するようにしてもよい。つまり、表示制御部14は、算出部13により算出された距離に応じた内容の動画を重畳表示させるようにしてもよい。この場合、情報処理装置10において、ARマーカ間の距離と表示対象となる動画再生データとが対応付けられて記憶されており、表示制御部14は、算出部13により算出された距離に対応する動画再生データを読み出して重畳表示させる。
[Modification 2]
The display control unit 14 may superimpose and display a moving image in a mode according to the distance between the real objects. This mode is the display size of the moving image in the embodiment, but may be, for example, the content of the moving image according to the distance. For example, when the distance between the AR markers is equal to or less than the threshold, a moving image in which the performance of a specific member of the band is mainly recorded as a subject is displayed, and when the distance between the AR markers exceeds the threshold, the band is displayed. A moving image recorded from a shooting position where the performance scenery of all the members is overlooked may be displayed. That is, the display control unit 14 may superimpose and display a moving image having contents corresponding to the distance calculated by the calculation unit 13. In this case, in the information processing apparatus 10, the distance between the AR markers and the moving image reproduction data to be displayed are stored in association with each other, and the display control unit 14 corresponds to the distance calculated by the calculation unit 13. The moving image reproduction data is read out and superimposed and displayed.

[変形例3]
実施形態では、ARマーカを結ぶ線分上にその線分の方向に応じた向きの仮想平面aが設けられ、その仮想平面aに動画が重畳表示されていた。これに代えて、表示制御部14は、撮像画像を閲覧するユーザの視線方向に応じた向きの仮想平面に動画を重畳表示させてもよい。ユーザの視線方向は、ユーザの目を撮像表示装置20が撮像して画像解析により特定すればよい。これにより、ユーザの視る方向により動画を表示する仮想平面の向きを変えられることになるから、例えば、常にユーザに対して正対する仮想平面(つまり仮想平面の法線とユーザの視線方向とが平行となる)に動画を重畳表示させることが可能となる。
[Modification 3]
In the embodiment, a virtual plane a having a direction corresponding to the direction of the line segment is provided on a line connecting the AR markers, and a moving image is superimposed on the virtual plane a. Instead, the display control unit 14 may superimpose and display a moving image on a virtual plane in a direction corresponding to the line of sight of the user viewing the captured image. The direction of the user's line of sight may be specified by the image capturing and displaying device 20 capturing the user's eyes by image analysis. Thereby, the direction of the virtual plane for displaying the moving image can be changed depending on the viewing direction of the user. Therefore, for example, the virtual plane directly facing the user (that is, the normal of the virtual plane and the viewing direction of the user are always It becomes possible to superimpose and display the moving image on (parallel).

[変形例4]
2つのARマーカのうち、いずれか一方のARマーカが移動させられてARマーカ間の距離が変わると、それに追随して動画の表示の態様が変わってもよいし、また、ARマーカ間の距離が変わったとしても、移動前の態様のまま動画を表示し続けるようにしてもよい。例えば、或る態様で動画が表示されているときにユーザにより所定の操作が行われた場合、その操作以後、複数のARマーカのうちいずれか一方が移動させられたとしても、動画の表示はそのままとする。つまり、表示制御部14は、ユーザにより所定の操作が行われた場合には、複数の実オブジェクトのうちいずれか一方の実オブジェクトが移動させられて当該複数の実オブジェクト間の距離が変更した場合であっても、動画の表示の態様を変更しないようにしてもよい。これは、ユーザが動画の表示態様を維持したい場合に便利である。また、例えば、或る態様で動画が表示されているときにいずれかのARマーカが移動させられた場合には、その動画の表示を消去してもよい。
[Modification 4]
When one of the two AR markers is moved and the distance between the AR markers changes, the display mode of the moving image may change accordingly, or the distance between the AR markers may change. Even if is changed, the moving image may be continuously displayed in the state before the movement. For example, when a predetermined operation is performed by a user while a moving image is displayed in a certain mode, the moving image is displayed even if one of the plurality of AR markers is moved after the operation. Leave as is. That is, when a predetermined operation is performed by the user, the display control unit 14 moves one of the plurality of real objects and changes the distance between the plurality of real objects. However, the display mode of the moving image may not be changed. This is convenient when the user wants to maintain the display mode of the moving image. Further, for example, when any of the AR markers is moved while a moving image is displayed in a certain mode, the display of the moving image may be deleted.

[変形例5]
例えば楽曲を演奏するバンドを構成するメンバーが3人以上であって、これらメンバーに対応するARマーカが3つ以上の場合、ARマーカの組み合わせに応じて異なる内容の動画を表示するようにしてもよい。例えば3人で構成されるバンドのメンバーA,B,Cに対応するARマーカM1,M2,M3としたとき、ARマーカM1,M2の組み合わせの場合にはメンバーA,Bを主に被写体として収録した動画を表示し、ARマーカM2,M3の組み合わせの場合にはメンバーB,Cを主に被写体として収録した動画を表示し、ARマーカM1,M3の組み合わせの場合にはメンバーA,Cを主に被写体として収録した動画を表示するといった具合である。つまり、表示制御部14は、検出部12により検出された複数の実オブジェクトの識別情報の組み合わせに応じた態様の動画を重畳表示させるようにしてもよい。
[Modification 5]
For example, if there are three or more members constituting a band playing music and three or more AR markers corresponding to these members, moving images having different contents may be displayed according to the combination of the AR markers. Good. For example, if AR markers M1, M2, and M3 corresponding to members A, B, and C of a band composed of three members, members A and B are mainly recorded as subjects in the case of a combination of AR markers M1 and M2. In the case of a combination of the AR markers M2 and M3, a moving image in which members B and C are mainly recorded as subjects is displayed, and in the case of a combination of the AR markers M1 and M3, the members A and C are mainly displayed. For example, a moving image recorded as a subject is displayed. That is, the display control unit 14 may superimpose and display a moving image in a mode according to the combination of the identification information of the plurality of real objects detected by the detection unit 12.

また、表示サイズテーブルにおいて、ARマーカの組み合わせに応じて異なる閾値を設定しておいてもよい。例えばARマーカM1,M2の組み合わせの場合には閾値L1,L2を用い、ARマーカM2,M3の組み合わせの場合には閾値L1、L2とは異なる閾値L3,L4を用い、ARマーカM1,M3の組み合わせの場合には閾値L1〜L4とは異なる閾値L5,L6を用いるといった具合である。   In the display size table, different threshold values may be set according to the combination of AR markers. For example, in the case of the combination of the AR markers M1 and M2, the thresholds L1 and L2 are used, and in the case of the combination of the AR markers M2 and M3, the thresholds L3 and L4 different from the thresholds L1 and L2 are used. In the case of a combination, thresholds L5 and L6 different from thresholds L1 to L4 are used.

また、1つの組み合わせに係るARマーカは3つ以上であってもよい。この場合、これらのARマーカのうちいずれか2つのARマーカ間の距離を用いてもよいし、各ARマーカ間の距離を全て算出してそれらの平均値を用いてもよい。また、この場合の動画の表示位置は、これらのARマーカのうちいずれか2つのARマーカ間を結ぶ線分上の仮想平面を表示位置としてもよいし、全てのARマーカを結んだ図形の重心となる位置に仮想平面を設けてそれを表示位置としてもよい。   The number of AR markers per combination may be three or more. In this case, the distance between any two AR markers among these AR markers may be used, or the distance between each AR marker may be calculated and the average value thereof may be used. In this case, the display position of the moving image may be a virtual plane on a line segment connecting any two AR markers among these AR markers, or the center of gravity of a figure connecting all the AR markers. It is also possible to provide a virtual plane at a position where, and use it as a display position.

[変形例6]
動画の内容は実施形態の例に限定されない。例えば、或るキャラクタの位置から各キャラクタを見たときの様子を動画として表示するようにしてもよい。具体的には、情報処理装置10の表示制御部14は、撮像画像中のARマーカの位置に基づいて各ARマーカの位置関係を特定し、例えばユーザにより指定された1のARマーカの位置から或る視野範囲で見たときの他のARマーカの位置を特定する。そして、表示制御部14は、或るARマーカの位置から見た視野範囲において、他のARマーカに対応するキャラクタ演奏動作を行っている様子を動画として生成して、撮像表示装置20に表示させる。つまり、表示制御部14は、検出部12により検出された複数の実オブジェクトのうちいずれか一方の識別情報に対応する仮想オブジェクトの位置に応じた態様の動画を重畳表示させるようにしてもよい。
[Modification 6]
The content of the moving image is not limited to the example of the embodiment. For example, an appearance when each character is viewed from a certain character position may be displayed as a moving image. Specifically, the display control unit 14 of the information processing device 10 specifies the positional relationship of each AR marker based on the position of the AR marker in the captured image, and, for example, determines the position relationship of one AR marker specified by the user. The position of another AR marker when viewed in a certain visual field range is specified. Then, the display control unit 14 generates, as a moving image, a state in which a character playing operation corresponding to another AR marker is performed in the visual field range viewed from the position of a certain AR marker, and causes the imaging display device 20 to display the moving image. . That is, the display control unit 14 may superimpose and display a moving image in a mode corresponding to the position of the virtual object corresponding to any one of the plurality of real objects detected by the detection unit 12.

[変形例7]
情報処理装置10が、撮像画像を閲覧しているユーザを例えばそのユーザの顔画像を認識する方法やユーザID又は生体情報を入力する方法等により識別するユーザ識別部を備え、表示制御部14は、ユーザ識別部により識別されたユーザに応じた動画を重畳表示させるようにしてもよい。例えばバンドを構成するメンバーのうち、そのユーザが好きなメンバーの識別情報を情報処理装置10に登録しておくようにすれば、複数の動画のうちユーザ識別部により識別された、ユーザが好きなメンバーを主に収録した動画を選択して、それを重畳表示させることが可能となる。つまり、ユーザの趣味嗜好に対応する動画を登録しておき、識別されたユーザに対応する動画を重畳表示させるようにしてもよい。
[Modification 7]
The information processing apparatus 10 includes a user identification unit that identifies a user who is viewing the captured image by, for example, a method of recognizing a face image of the user or a method of inputting a user ID or biometric information. Alternatively, a moving image corresponding to the user identified by the user identification unit may be superimposed and displayed. For example, if the identification information of the member who likes the user among the members constituting the band is registered in the information processing device 10, the user who is identified by the user identification unit among the plurality of moving images and likes the user It is possible to select a moving image mainly including members and superimpose the selected moving image. That is, a moving image corresponding to the user's hobby and taste may be registered, and the moving image corresponding to the identified user may be superimposed.

[変形例8]
ARマーカ間の距離の算出方法は実施形態の例に限定されない。また、動画の表示サイズの上限又は下限は無くてもよい。
[Modification 8]
The method for calculating the distance between the AR markers is not limited to the example of the embodiment. In addition, there may be no upper limit or lower limit of the display size of the moving image.

[そのほかの変形例]
上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。例えば、情報処理装置10の機能の少なくとも一部が撮像表示装置20に実装されてもよい。情報処理装置10の機能の全部が撮像表示装置20に実装された場合、撮像表示装置20が本発明に係る情報処理装置として機能する。
[Other modifications]
The block diagram used in the description of the above-described embodiment shows blocks in functional units. These functional blocks (components) are realized by an arbitrary combination of hardware and / or software. The means for implementing each functional block is not particularly limited. That is, each functional block may be realized by one device physically and / or logically coupled, or two or more devices physically and / or logically separated from each other directly and / or indirectly. (For example, wired and / or wireless), and may be realized by the plurality of devices. For example, at least a part of the functions of the information processing device 10 may be mounted on the imaging display device 20. When all of the functions of the information processing device 10 are mounted on the imaging display device 20, the imaging display device 20 functions as the information processing device according to the present invention.

本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。   Each aspect / embodiment described in this specification includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA. (Registered trademark), GSM (registered trademark), CDMA2000, Ultra Mobile Broadband (UMB), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), The present invention may be applied to a system using Bluetooth (registered trademark), another appropriate system, and / or a next-generation system extended based on the system.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、その所定の情報の通知を行わない)ことによって行われてもよい。
The processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in this specification may be interchanged as long as there is no inconsistency. For example, the methods described herein present elements of various steps in a sample order, and are not limited to the specific order presented.
Each aspect / embodiment described in this specification may be used alone, may be used in combination, or may be switched as the execution goes on. In addition, the notification of the predetermined information (for example, the notification of “X”) is not limited to explicitly performed, and is performed implicitly (for example, not performing the notification of the predetermined information). Is also good.

本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。   The terms "system" and "network" as used herein are used interchangeably.

本明細書で説明した情報又はパラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。   The information, parameters, and the like described in this specification may be represented by an absolute value, a relative value from a predetermined value, or another corresponding information. For example, the radio resource may be indicated by an index.

上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素(例えば、TPCなど)は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的なものではない。   The names used for the parameters described above are not limiting in any way. Further, the formulas and the like that use these parameters may differ from those explicitly disclosed herein. Since the various channels (eg, PUCCH, PDCCH, etc.) and information elements (eg, TPC, etc.) can be identified by any suitable name, the various names assigned to these various channels and information elements may differ in any way. However, it is not limited.

本明細書で使用する「判定(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判定」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining) した事を「判定」「決定」したとみなす事などを含み得る。また、「判定」、「決定」は、受信(receiving) (例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判定」「決定」したとみなす事などを含み得る。また、「判定」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判定」「決定」したとみなす事を含み得る。つまり、「判定」「決定」は、何らかの動作を「判定」「決定」したとみなす事を含み得る。   The terms "determining" and "determining" as used herein may encompass a wide variety of operations. The “judgment” and “decision” are, for example, judgment (judging), calculation (computing), processing (processing), deriving (investigating), investing (looking up) (for example, a table). , Searching in a database or another data structure), ascertaining what is considered to be “determined”, “determined”, and the like. Also, “determining” and “determining” refer to receiving (eg, receiving information), transmitting (eg, transmitting information), input (input), output (output), access (Accessing) (for example, accessing data in the memory) may be regarded as “determined” or “determined”. In addition, “determination” and “decision” mean that resolving, selecting, selecting, establishing, establishing, comparing, and the like are regarded as “determination” and “determined”. May be included. In other words, “determination” and “determination” may include deeming that any operation is “determination” and “determined”.

本発明は、撮像表示装置20又は情報処理装置10において行われる処理のステップを備える情報処理方法として提供されてもよい。また、本発明は、撮像表示装置20又は情報処理装置10において実行されるプログラムとして提供されてもよい。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等のネットワークを介して、コンピュータにダウンロードさせ、これをインストールして利用可能にするなどの形態で提供されたりすることが可能である。   The present invention may be provided as an information processing method including steps of processing performed in the imaging display device 20 or the information processing device 10. Further, the present invention may be provided as a program executed in the imaging display device 20 or the information processing device 10. Such a program may be provided in a form recorded on a recording medium such as an optical disk, or may be provided in a form such as being downloaded to a computer via a network such as the Internet and installed and made available. It is possible.

ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。   Software, instructions, etc. may be sent and received via transmission media. For example, if the software uses a wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or a wireless technology such as infrared, wireless and microwave, the website, server, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。   The information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc., that can be referred to throughout the above description are not limited to voltages, currents, electromagnetic waves, magnetic or magnetic particles, optical or photons, or any of these. May be represented by a combination of

本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及び/又はシンボルは信号(シグナル)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC)は、キャリア周波数、セルなどと呼ばれてもよい。   The terms described in the present specification and / or the terms necessary for understanding the present description may be replaced with terms having the same or similar meaning. For example, channels and / or symbols may be signals. Also, the signal may be a message. Further, the component carrier (CC) may be called a carrier frequency, a cell, or the like.

本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1要素が第2要素に先行しなければならないことを意味しない。   Any reference to elements using designations such as "first," "second," etc., as used herein, does not generally limit the quantity or order of those elements. These designations may be used herein as a convenient way to distinguish between two or more elements. Thus, reference to a first and second element does not mean that only two elements may be employed therein, or that the first element must somehow precede the second element.

上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。   “Means” in the configuration of each device described above may be replaced with “unit”, “circuit”, “device”, or the like.

「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書或いは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書或いは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。   As long as “including”, “comprising”, and variations thereof, are used herein or in the claims, these terms are inclusive as well as the term “comprising” It is intended to be relevant. Further, it is intended that the term "or", as used herein or in the claims, not be the exclusive OR.

本開示の全体において、例えば、英語でのa、an、及びtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。   Throughout this disclosure, when articles are added by translation, e.g., a, an, and the in English, unless the context clearly indicates otherwise, It shall include a plurality.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。   Although the present invention has been described in detail, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described in this specification. The present invention can be embodied as modified and changed aspects without departing from the spirit and scope of the present invention defined by the description of the claims. Therefore, the description in the present specification is for the purpose of illustrative explanation, and does not have any restrictive meaning to the present invention.

1…情報処理システム、10…情報処理装置、11…取得部、12…検出部、13…算出部、14…表示制御部、20…撮像表示装置、90…ネットワーク、101…CPU、102…RAM、103…ROM、104…補助記憶装置、105…通信IF、201…CPU、202…RAM、203…ROM、204…補助記憶装置、205…通信IF、206…撮像部、207…表示部、208…操作部。 DESCRIPTION OF SYMBOLS 1 ... Information processing system, 10 ... Information processing apparatus, 11 ... Acquisition part, 12 ... Detection part, 13 ... Calculation part, 14 ... Display control part, 20 ... Image pickup display device, 90 ... Network, 101 ... CPU, 102 ... RAM 103, ROM, 104, auxiliary storage device, 105, communication IF, 201, CPU, 202, RAM, 203, ROM, 204, auxiliary storage device, 205, communication IF, 206, imaging unit, 207, display unit, 208 ... operation unit.

Claims (10)

撮像画像を取得する取得部と、
前記取得部により取得された撮像画像において、識別情報が記された実オブジェクトを検出する検出部と、
前記検出部により複数の前記実オブジェクトが検出された場合に、当該複数の前記実オブジェクト間の距離を算出する算出部と、
前記検出部により検出された前記実オブジェクトの識別情報に対応する仮想オブジェクトを前記撮像画像に重畳表示させる表示制御部であって、前記検出部により複数の前記実オブジェクトが検出された場合には、前記算出部により算出された距離に応じた態様の動画を前記撮像画像に重畳表示させる表示制御部と
を備えることを特徴とする情報処理装置。
An acquisition unit that acquires a captured image;
In the captured image obtained by the obtaining unit, a detecting unit that detects a real object on which identification information is written,
A calculating unit that calculates a distance between the plurality of real objects when the plurality of real objects is detected by the detection unit;
A display control unit that superimposes a virtual object corresponding to the identification information of the real object detected by the detection unit on the captured image, and when the detection unit detects a plurality of the real objects, A display control unit configured to superimpose and display a moving image in a mode corresponding to the distance calculated by the calculation unit on the captured image.
前記表示制御部は、動作を行う前記仮想オブジェクトを重畳表示させるとともに、当該仮想オブジェクトの動作に連動する前記動画を重畳表示させる
ことを特徴とする請求項1記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the display control unit superimposes the virtual object performing the operation and superimposes the moving image in conjunction with the operation of the virtual object.
前記表示制御部は、演奏動作を行う前記仮想オブジェクトを重畳表示させるとともに、当該仮想オブジェクトの演奏動作に対応する演奏動作を行う演奏者を収録した前記動画を重畳表示させる
ことを特徴とする請求項2記載の情報処理装置。
The display control unit superimposes and displays the virtual object performing the performance operation, and superimposes and displays the moving image recording a player performing a performance operation corresponding to the performance operation of the virtual object. 2. The information processing apparatus according to item 2.
前記表示制御部は、前記算出部により算出された距離に応じた大きさの前記動画を重畳表示させる
ことを特徴とする請求項1〜3のいずれか1項に記載の情報処理装置。
The information processing device according to claim 1, wherein the display control unit superimposes and displays the moving image having a size corresponding to the distance calculated by the calculation unit.
前記表示制御部は、前記算出部により算出された距離に応じた内容の前記動画を重畳表示させる
ことを特徴とする請求項1〜4のいずれか1項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 4, wherein the display control unit superimposes and displays the moving image having content corresponding to the distance calculated by the calculation unit.
前記表示制御部は、複数の前記実オブジェクトを結ぶ線分上において、当該線分の方向に応じた向きの仮想平面に前記動画を重畳表示させる
ことを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。
The said display control part superimposes and displays the said moving image on the virtual plane of the direction according to the direction of the said line segment on the line segment which connects several said real objects. 2. The information processing apparatus according to claim 1.
前記表示制御部は、前記撮像画像を閲覧するユーザの視線方向に応じた向きの仮想平面に前記動画を重畳表示させる
ことを特徴とする請求項1〜5のいずれか1項に記載の情報処理装置。
The information processing according to any one of claims 1 to 5, wherein the display control unit superimposes and displays the moving image on a virtual plane oriented in a direction of a line of sight of a user who views the captured image. apparatus.
前記表示制御部は、前記撮像画像を閲覧するユーザにより所定の操作が行われた場合には、前記複数の実オブジェクトのうちいずれか一方の実オブジェクトが移動させられて当該複数の前記実オブジェクト間の距離が変更した場合であっても、前記動画の表示の態様を変更しない
ことを特徴とする請求項1〜7のいずれか1項に記載の情報処理装置。
When a predetermined operation is performed by a user who browses the captured image, one of the plurality of real objects is moved, and the display control unit moves between the plurality of real objects. The information processing apparatus according to any one of claims 1 to 7, wherein the display mode of the moving image is not changed even when the distance of the moving image changes.
前記表示制御部は、前記検出部により検出された複数の前記実オブジェクトの識別情報の組み合わせに応じた態様の前記動画を重畳表示させる
ことを特徴とする請求項1〜8のいずれか1項に記載の情報処理装置。
The said display control part superimposes and displays the said moving image of the aspect according to the combination of the identification information of the some said real object detected by the said detection part. The Claim 1 characterized by the above-mentioned. An information processing apparatus according to claim 1.
前記表示制御部は、前記検出部により検出された複数の前記実オブジェクトのうちいずれか一方の識別情報に対応する仮想オブジェクトの位置に応じた態様の前記動画を重畳表示させる
ことを特徴とする請求項1〜9のいずれか1項に記載の情報処理装置。
The display control unit superimposes and displays the moving image in a mode according to a position of a virtual object corresponding to identification information of one of the plurality of real objects detected by the detection unit. Item 10. The information processing apparatus according to any one of Items 1 to 9.
JP2018141128A 2018-07-27 2018-07-27 Information processing equipment Active JP6999516B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018141128A JP6999516B2 (en) 2018-07-27 2018-07-27 Information processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018141128A JP6999516B2 (en) 2018-07-27 2018-07-27 Information processing equipment

Publications (2)

Publication Number Publication Date
JP2020017176A true JP2020017176A (en) 2020-01-30
JP6999516B2 JP6999516B2 (en) 2022-01-18

Family

ID=69580580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018141128A Active JP6999516B2 (en) 2018-07-27 2018-07-27 Information processing equipment

Country Status (1)

Country Link
JP (1) JP6999516B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020065135A (en) * 2018-10-16 2020-04-23 株式会社Nttぷらら Information processing device, information processing system, information processing method, and computer program
JPWO2021132168A1 (en) * 2019-12-26 2021-07-01
JP7123222B1 (en) 2021-06-18 2022-08-22 ヤフー株式会社 Display control device, display control method and display control program
JP2023000947A (en) * 2021-06-18 2023-01-04 ヤフー株式会社 Device, method, and program for display control
WO2023281803A1 (en) * 2021-07-08 2023-01-12 ソニーグループ株式会社 Information processing device, information processing method, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072668A (en) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc Image processor, game device, and image processing method
JP2015198443A (en) * 2014-04-01 2015-11-09 村瀬 徹 augmented reality system, augmented reality processing method, program and recording medium
JP2016095620A (en) * 2014-11-13 2016-05-26 キヤノン株式会社 Display device, server device, display system and control method thereof, control program, and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006072668A (en) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc Image processor, game device, and image processing method
JP2015198443A (en) * 2014-04-01 2015-11-09 村瀬 徹 augmented reality system, augmented reality processing method, program and recording medium
JP2016095620A (en) * 2014-11-13 2016-05-26 キヤノン株式会社 Display device, server device, display system and control method thereof, control program, and storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020065135A (en) * 2018-10-16 2020-04-23 株式会社Nttぷらら Information processing device, information processing system, information processing method, and computer program
JP7170495B2 (en) 2018-10-16 2022-11-14 株式会社Nttドコモ Information processing device, information processing system, information processing method, and computer program
JPWO2021132168A1 (en) * 2019-12-26 2021-07-01
JP7217368B2 (en) 2019-12-26 2023-02-02 株式会社Nttドコモ image display device
JP7123222B1 (en) 2021-06-18 2022-08-22 ヤフー株式会社 Display control device, display control method and display control program
JP2023000948A (en) * 2021-06-18 2023-01-04 ヤフー株式会社 Device, method, and program for display control
JP2023000947A (en) * 2021-06-18 2023-01-04 ヤフー株式会社 Device, method, and program for display control
WO2023281803A1 (en) * 2021-07-08 2023-01-12 ソニーグループ株式会社 Information processing device, information processing method, and storage medium

Also Published As

Publication number Publication date
JP6999516B2 (en) 2022-01-18

Similar Documents

Publication Publication Date Title
JP6999516B2 (en) Information processing equipment
US11729252B2 (en) Content collection navigation and autoforwarding
CA3016921C (en) System and method for deep learning based hand gesture recognition in first person view
CN105981368B (en) Picture composition and position guidance in an imaging device
US20230010905A1 (en) Content collection navigation queue
CN106575361B (en) Method for providing visual sound image and electronic equipment for implementing the method
US11636644B2 (en) Output of virtual content
US10074216B2 (en) Information processing to display information based on position of the real object in the image
US10846535B2 (en) Virtual reality causal summary content
US10499097B2 (en) Methods, systems, and media for detecting abusive stereoscopic videos by generating fingerprints for multiple portions of a video frame
EP2795402A1 (en) A method, an apparatus and a computer program for determination of an audio track
KR20200066745A (en) Explore media collections using opt-out interstitial
WO2022072664A1 (en) Ad breakpoints in video within messaging system
CN109271929B (en) Detection method and device
US20150193911A1 (en) Display control device, display control system, and display control method
WO2022072542A1 (en) Inserting ads into video within messaging system
CN106687944A (en) Activity based text rewriting using language generation
US20180006992A1 (en) Content posting method and apparatus
US8463052B2 (en) Electronic apparatus and image search method
US9148472B2 (en) Server, electronic device, server control method, and computer-readable medium
JP7011447B2 (en) Information processing equipment and programs
JP6864593B2 (en) Information processing device
US11468657B2 (en) Storage medium, information processing apparatus, and line-of-sight information processing method
US20240046704A1 (en) Determination method and determination apparatus
US20220100989A1 (en) Identifying partially covered objects utilizing machine learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211222

R150 Certificate of patent or registration of utility model

Ref document number: 6999516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150