JP2021060789A - Video processing system - Google Patents

Video processing system Download PDF

Info

Publication number
JP2021060789A
JP2021060789A JP2019184434A JP2019184434A JP2021060789A JP 2021060789 A JP2021060789 A JP 2021060789A JP 2019184434 A JP2019184434 A JP 2019184434A JP 2019184434 A JP2019184434 A JP 2019184434A JP 2021060789 A JP2021060789 A JP 2021060789A
Authority
JP
Japan
Prior art keywords
image
recognition information
video processing
video
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019184434A
Other languages
Japanese (ja)
Other versions
JP7442168B2 (en
Inventor
清峻 渡邉
Kiyotoshi Watanabe
清峻 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Placeholder Inc
Original Assignee
Placeholder Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Placeholder Inc filed Critical Placeholder Inc
Priority to JP2019184434A priority Critical patent/JP7442168B2/en
Publication of JP2021060789A publication Critical patent/JP2021060789A/en
Application granted granted Critical
Publication of JP7442168B2 publication Critical patent/JP7442168B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a video processing system that can improve interest of a user.SOLUTION: The present invention relates to a video processing system. The video processing system including a three-dimensional object that is placed in a real environment that can be perceived by a user, comprises: video recognition information with which video corresponding to the three-dimensional object is associated to be placed on the object, and a video processing program that recognizes the video recognition information and superimposes the video on the object. According to such a configuration, video production using so-called augmented reality (AR) technology can be provided.SELECTED DRAWING: Figure 1

Description

本発明は、映像処理システム、特に、ユーザが知覚可能な現実環境に配置される立体形状の対象物を備える映像処理システムに関する。 The present invention relates to a video processing system, particularly a video processing system including a three-dimensional object arranged in a real environment perceptible to the user.

近年、ユーザが知覚可能な現実環境に存在する対象物にコンピュータグラフィックスによる映像を重ね合わせて、対象物と映像との調和を楽しむ、現実環境が拡張された拡張現実を提供する映像処理技術が提案されている。 In recent years, video processing technology that provides augmented reality with an expanded real environment has been developed by superimposing computer graphics images on objects that exist in a real environment that can be perceived by the user and enjoying the harmony between the objects and the images. Proposed.

特許文献1には、カメラによって撮影される現実環境の画像に仮想オブジェクトが配置された拡張現実空間をディスプレイに表示するとともに、この拡張現実空間を複数の端末間で共有することができる拡張現実プログラムが開示されている。 Patent Document 1 describes an augmented reality program in which an augmented reality space in which virtual objects are arranged in an image of a real environment taken by a camera is displayed on a display, and the augmented reality space can be shared among a plurality of terminals. Is disclosed.

特許第6548241号公報Japanese Patent No. 6548241

ところで、この種の映像処理技術において、現実環境に存在する対象物の物理的な存在感を損なわしめることなく、対象物の有する特徴を活用できるような映像を対象物に重ね合わせることができれば、ユーザが対象物について知覚する現実環境を活用した高度な拡張現実がもたらされることから、ユーザの興趣が向上する。 By the way, in this kind of image processing technology, if it is possible to superimpose an image that can utilize the characteristics of an object on the object without impairing the physical presence of the object existing in the real environment. It enhances the user's interest by providing a high degree of augmented reality that utilizes the real environment that the user perceives about the object.

本発明は、上記事情に鑑みてなされたものであり、ユーザの興趣を向上させることができる映像処理システムを提供することを課題とするものである。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a video processing system capable of improving the interest of a user.

上記課題を達成するための、本発明に係る映像処理システムは、ユーザが知覚可能な現実環境に配置される立体形状の対象物を備える映像処理システムであって、立体形状の対象物に対応する映像が関連づけられて対象物に配置される映像認識情報と、映像認識情報を認識して映像を対象物に重ね合わせる映像処理プログラムと、を備えるものである。 The video processing system according to the present invention for achieving the above object is a video processing system including a three-dimensional object arranged in a real environment that can be perceived by a user, and corresponds to the three-dimensional object. It includes image recognition information in which images are associated and arranged on an object, and an image processing program that recognizes the image recognition information and superimposes the image on the object.

これによれば、映像処理システムは、立体形状の対象物に対応する映像が関連づけられた映像認識情報を認識すると、現実環境に配置される対象物についてユーザが知覚する物理的な存在感を損なわしめることがない状態で、立体形状であるという対象物の有する特徴を活用できる映像が対象物に重ね合わせられる。 According to this, when the image processing system recognizes the image recognition information associated with the image corresponding to the three-dimensional object, the physical presence perceived by the user about the object arranged in the real environment is impaired. An image that can utilize the characteristic of the object, which is a three-dimensional shape, is superimposed on the object without being squeezed.

したがって、ユーザが対象物について知覚する現実環境を活用した高度な拡張現実がもたらされることから、ユーザの興趣が向上することが期待される。 Therefore, it is expected that the user's interest will be improved because a high-level augmented reality that utilizes the real environment that the user perceives about the object is brought about.

さらに、映像処理システムの映像処理プログラムは、映像認識情報を認識した際に対象物に認識映像を重ね合わせるものであり、映像は、対象物の映像認識情報を透過させる視覚効果を伴う映像であってもよい。 Further, the video processing program of the video processing system superimposes the recognition video on the object when the video recognition information is recognized, and the video is a video with a visual effect of transmitting the video recognition information of the object. You may.

しかも、映像処理システムは、映像認識情報を認識する認識手段を備え、映像処理プログラムは、対象物に映像を重ね合わせる際に認識手段と映像認識情報との間の距離に応じて対象物の映像認識情報を透過させる程度を変更するものである。 Moreover, the video processing system includes a recognition means for recognizing the video recognition information, and the video processing program superimposes the video on the object according to the distance between the recognition means and the video recognition information. The degree to which the recognition information is transmitted is changed.

映像処理システムの映像処理プログラムは、対象物に映像を重ね合わせる際に対象物にオブジェクトを配置するものであってもよい。 The video processing program of the video processing system may be one that arranges an object on the object when superimposing the video on the object.

一方、映像処理システムは、映像認識情報が配置された対象物を複数備え、映像処理プログラムは、複数の対象物が現実環境において隣接して配置される際に複数の対象物にそれぞれ配置された映像認識情報を認識して映像を複数の対象物に重ね合わせるものである。 On the other hand, the video processing system includes a plurality of objects on which the video recognition information is arranged, and the video processing program is arranged on each of the plurality of objects when the plurality of objects are arranged adjacent to each other in the real environment. It recognizes image recognition information and superimposes an image on a plurality of objects.

さらに、映像処理システムの映像処理プログラムは、複数の対象物に映像を重ね合わせる際に複数の対象物のうちいずれか一の対象物にオブジェクトを配置し、オブジェクトが配置された一の対象物に近接して配置される他の対象物にオブジェクトを移動させるものである。 Further, the video processing program of the video processing system arranges an object on one of a plurality of objects when superimposing an image on a plurality of objects, and sets the object on the one object on which the objects are arranged. It moves an object to another object that is placed in close proximity.

この発明によれば、ユーザが対象物について知覚する現実環境よりも高度な拡張現実がもたらされることから、ユーザの興趣が向上することが期待される。 According to the present invention, it is expected that the user's interest will be improved because a higher degree of augmented reality than the real environment that the user perceives about the object is brought about.

本発明の実施の形態に係る映像処理システムの概略を説明する図である。It is a figure explaining the outline of the image processing system which concerns on embodiment of this invention. 同じく、本実施の形態に係る映像処理システムの対象物であるARボックスの概略を説明する図である。Similarly, it is a figure explaining the outline of the AR box which is the object of the image processing system which concerns on this embodiment. 同じく、本実施の形態に係る映像処理システムのスマートフォンの構成の概略を説明するブロック図である。Similarly, it is a block diagram explaining the outline of the structure of the smartphone of the video processing system which concerns on this embodiment. 同じく、本実施の形態に係る映像処理システムのスマートフォンのストレージの構成の概略を説明するブロック図である。Similarly, it is a block diagram explaining the outline of the storage structure of the smartphone of the video processing system which concerns on this embodiment. 同じく、本実施の形態に係る映像処理システムの映像処理モジュールの処理の概略を説明するブロック図である。Similarly, it is a block diagram explaining the outline of processing of the image processing module of the image processing system which concerns on this embodiment. 同じく、本実施の形態に係る映像処理システムの映像処理モジュールの処理の概略を説明するブロック図である。Similarly, it is a block diagram explaining the outline of processing of the image processing module of the image processing system which concerns on this embodiment. 同じく、本実施の形態に係る映像処理システムの映像処理モジュールの処理の概略を説明するブロック図である。Similarly, it is a block diagram explaining the outline of processing of the image processing module of the image processing system which concerns on this embodiment. 同じく、本実施の形態に係る映像処理システムの映像処理モジュールの処理の概略を説明するブロック図である。Similarly, it is a block diagram explaining the outline of processing of the image processing module of the image processing system which concerns on this embodiment.

次に、図1〜図8に基づいて、本発明の実施の形態に係る映像処理システムについて説明する。 Next, the video processing system according to the embodiment of the present invention will be described with reference to FIGS. 1 to 8.

図1は、本実施の形態に係る映像処理システムの概略を説明する図である。図示のように、映像処理システム1は、対象物である複数、本実施の形態では2体のARボックス10−1、10−2、このARボックス10−1、10−2をモニターする認識手段であるカメラ40が内蔵されてカメラ40でモニターしたARボックス10−1、10−2が表示されるディスプレイ41を有する携帯型情報端末であるスマートフォン20を備える。 FIG. 1 is a diagram illustrating an outline of a video processing system according to the present embodiment. As shown in the figure, the image processing system 1 is a recognition means for monitoring a plurality of objects, two AR boxes 10-1 and 10-2 in the present embodiment, and the AR boxes 10-1 and 10-2. The smartphone 20 is a portable information terminal having a display 41 in which the camera 40 is built-in and the AR boxes 10-1 and 10-2 monitored by the camera 40 are displayed.

図2は、ARボックス10−1、10−2の概略を説明する図である。図示のように、ARボックス10−1、10−2は、ユーザUが知覚可能な現実環境に配置される立体形状、本実施の形態では立方体状であって、ARボックス10−1、10−2にはそれぞれ、異なる図案として描画された映像認識情報D1、D2が配置される。 FIG. 2 is a diagram illustrating an outline of AR boxes 10-1 and 10-2. As shown, the AR boxes 10-1 and 10-2 have a three-dimensional shape arranged in a real environment perceptible to the user U, and in the present embodiment, have a cubic shape, and the AR boxes 10-1, 10- Image recognition information D1 and D2 drawn as different designs are arranged in 2, respectively.

これら映像認識情報D1、D2には、本実施の形態では、立体形状のARボックス10−1、10−2に対応する映像が関連づけられており、スマートフォン20のカメラ40が各ARボックス10−1、10−2をモニターすると、後述する映像処理プログラムでの処理によって映像認識情報D1、D2を認識して、ARボックス10−1、10−2に映像を重ね合わせてスマートフォン20のディスプレイ41に表示する。 In the present embodiment, the image recognition information D1 and D2 are associated with images corresponding to the three-dimensional AR boxes 10-1 and 10-2, and the camera 40 of the smartphone 20 is associated with each AR box 10-1. When 10-2 is monitored, the video recognition information D1 and D2 are recognized by the processing by the video processing program described later, and the video is superimposed on the AR boxes 10-1 and 10-2 and displayed on the display 41 of the smartphone 20. To do.

図3は、スマートフォン20の構成の概略を説明するブロック図である。図示のように、スマートフォン20は、制御部30、カメラ40及びディスプレイ41を主要構成として備える。 FIG. 3 is a block diagram illustrating an outline of the configuration of the smartphone 20. As shown in the figure, the smartphone 20 includes a control unit 30, a camera 40, and a display 41 as main configurations.

制御部30は、本実施の形態では、プロセッサ31、メモリ32、ストレージ33、送受信部34、及び入出力部35を備え、これらが互いにバス36を介して電気的に接続される。 In the present embodiment, the control unit 30 includes a processor 31, a memory 32, a storage 33, a transmission / reception unit 34, and an input / output unit 35, which are electrically connected to each other via a bus 36.

プロセッサ31は、制御部30の動作を制御し、各要素間におけるデータの送受信の制御や、アプリケーションプログラムの実行に必要な処理等を行う演算装置である。 The processor 31 is an arithmetic unit that controls the operation of the control unit 30, controls the transmission and reception of data between each element, and performs processing necessary for executing an application program.

このプロセッサ31は、本実施の形態では例えばCPU(Central Processing Unit)であり、後述するストレージ33に格納されてメモリ32に展開されたアプリケーションプログラムを実行して各処理を行う。 In the present embodiment, the processor 31 is, for example, a CPU (Central Processing Unit), and executes each process by executing an application program stored in the storage 33 and expanded in the memory 32, which will be described later.

メモリ32は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶装置、及びフラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶装置を備える。 The memory 32 includes a main storage device composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory), and an auxiliary storage device composed of a non-volatile storage device such as a flash memory or an HDD (Hard Disk Drive). ..

このメモリ32は、プロセッサ31の作業領域として使用される一方、制御部30の起動時に実行されるBIOS(Basic Input/Output System)、及び各種の設定情報等が格納される。 While the memory 32 is used as a work area of the processor 31, the BIOS (Basic Input / Output System) executed when the control unit 30 is started, various setting information, and the like are stored.

ストレージ33は、プログラムや各種の処理に用いられる情報等が格納されている。このストレージ33の構成については、後述する。 The storage 33 stores information and the like used for programs and various processes. The configuration of the storage 33 will be described later.

送受信部34は、制御部30をインターネット網等のネットワークに接続する。この送受信部34は、Bluetooth(登録商標)やBLE(Bluetooth Low Energy)といった近距離通信インターフェースを具備するものであってもよい。 The transmission / reception unit 34 connects the control unit 30 to a network such as an Internet network. The transmission / reception unit 34 may be provided with a short-range communication interface such as Bluetooth (registered trademark) or BLE (Bluetooth Low Energy).

入出力部35は、入出力機器が接続されるインターフェースであって、本実施の形態では、カメラ40及びディスプレイ41が接続される。 The input / output unit 35 is an interface to which input / output devices are connected, and in the present embodiment, the camera 40 and the display 41 are connected.

バス36は、接続したプロセッサ31、メモリ32、ストレージ33、送受信部34及び入出力部35の間において、例えばアドレス信号、データ信号及び各種の制御信号を伝達する。 The bus 36 transmits, for example, an address signal, a data signal, and various control signals between the connected processor 31, the memory 32, the storage 33, the transmission / reception unit 34, and the input / output unit 35.

カメラ40は、本実施の形態では、ARボックス10−1、10−2をモニターしてARボックス10−1、10−2を映像あるいは画像として取得する。 In the present embodiment, the camera 40 monitors the AR boxes 10-1 and 10-2 and acquires the AR boxes 10-1 and 10-2 as an image or an image.

ディスプレイ41は、カメラ40でモニターしたARボックス10−1、10−2が表示され、本実施の形態では、表示面への接触によって情報の入力を受け付けるいわゆるタッチパネルであって、抵抗膜方式や静電容量方式といった各種の技術によって実装される。 The display 41 displays AR boxes 10-1 and 10-2 monitored by the camera 40, and in the present embodiment, it is a so-called touch panel that accepts information input by contact with the display surface, and is of a resistive film method or static. It is implemented by various technologies such as capacitance method.

図4は、ストレージ33の構成の概略を説明するブロック図である。図示のように、ストレージ33は、ストレージ33の提供する記憶領域として実現される記憶部50、及び映像処理プログラム51を備える。 FIG. 4 is a block diagram illustrating an outline of the configuration of the storage 33. As shown in the figure, the storage 33 includes a storage unit 50 realized as a storage area provided by the storage 33, and a video processing program 51.

記憶部50には、本実施の形態では、映像認識情報D1、D2に関連づけられてARボックス10−1、10−2に重ね合わせられる映像が格納されるとともに、ARボックス10−1、10−2に重ね合わせられる後述のオブジェクトが格納される。 In the storage unit 50, in the present embodiment, the images associated with the image recognition information D1 and D2 and superimposed on the AR boxes 10-1 and 10-2 are stored, and the AR boxes 10-1, 10- The object described later to be superimposed on 2 is stored.

映像処理プログラム51は、本実施の形態では、入力モジュール51a、距離検知モジュール51b及び映像処理モジュール51cを備える。 In the present embodiment, the video processing program 51 includes an input module 51a, a distance detection module 51b, and a video processing module 51c.

入力モジュール51aは、カメラ40がモニターして取得したARボックス10−1、10−2の映像あるいは画像、及びカメラ40を介して映像処理プログラム51が認識した映像認識情報D1、D2が入力されるモジュールである。 The input module 51a inputs the images or images of the AR boxes 10-1 and 10-2 monitored and acquired by the camera 40, and the image recognition information D1 and D2 recognized by the image processing program 51 via the camera 40. It is a module.

距離検知モジュール51bは、本実施の形態では、カメラ40とARボックス10−1、10−2に配置された映像認識情報D1、D2との距離を検知するモジュールである。 In the present embodiment, the distance detection module 51b is a module that detects the distance between the camera 40 and the image recognition information D1 and D2 arranged in the AR boxes 10-1 and 10-2.

映像処理モジュール51cは、距離検知モジュール51bで検知したカメラ40と映像認識情報D1、D2との距離に基づいて、入力モジュール51aに入力されたARボックス10−1、10−2の映像あるいは画像に映像認識情報D1、D2に関連づけられた映像を重ね合わせるとともに、後述のオブジェクトをARボックス10−1、10−2の映像あるいは画像に重ね合わせるモジュールである。 The image processing module 51c converts the images or images of the AR boxes 10-1 and 10-2 input to the input module 51a based on the distance between the camera 40 and the image recognition information D1 and D2 detected by the distance detection module 51b. This is a module for superimposing the images associated with the image recognition information D1 and D2 and superimposing the objects described later on the images or images of the AR boxes 10-1 and 10-2.

図5〜図8は、映像処理モジュール51cの処理の概略を説明するブロック図である。 5 to 8 are block diagrams illustrating an outline of processing of the video processing module 51c.

図5で示すように、映像処理モジュール51cは、カメラ40が現実環境に配置されるARボックス10−1をモニターして、ARボックス10−1に配置された映像認識情報D1を認識すると、ARボックス10−1を認識したことを示す認識映像、例えば本実施の形態では、煙玉が破裂してARボックス10−1が煙幕に包まれるような視覚効果を伴う映像M1をARボックス10−1に重ね合わせる。 As shown in FIG. 5, when the camera 40 monitors the AR box 10-1 arranged in the real environment and recognizes the image recognition information D1 arranged in the AR box 10-1, the AR is AR. A recognition image showing that the box 10-1 has been recognized, for example, in the present embodiment, the AR box 10-1 is an image M1 having a visual effect that the smoke ball bursts and the AR box 10-1 is wrapped in a smoke screen. Overlay on.

さらに、映像処理モジュール51cは、図6で示すように、ARボックス10−1に、ARボックス10−1の映像認識情報D1を透過させる視覚効果を伴う映像M2を重ね合わせ、映像M2をARボックス10−1に重ね合わせる際に、距離検知モジュール51bで検知したカメラ40と映像認識情報D1との間の距離に応じて、ARボックス10−1の映像認識情報D1を透過させる程度を変更する映像処理を行う。 Further, as shown in FIG. 6, the image processing module 51c superimposes the image M2 with the visual effect of transmitting the image recognition information D1 of the AR box 10-1 on the AR box 10-1, and puts the image M2 in the AR box. An image that changes the degree to which the image recognition information D1 of the AR box 10-1 is transmitted according to the distance between the camera 40 and the image recognition information D1 detected by the distance detection module 51b when superimposing on 10-1. Perform processing.

具体的には、図6(a)で示すように、映像処理プログラム51がARボックス10−1を認識した際におけるカメラ40と映像認識情報D1との間の距離(例えば17cm)に基づいて、図案として描画された映像認識情報D1を透過させて例えばARボックス10−1の内部に四角い窓が配置された部屋が存在するかのような視覚効果を伴う映像M2を、ARボックス10−1に重ね合わせる。 Specifically, as shown in FIG. 6A, based on the distance (for example, 17 cm) between the camera 40 and the image recognition information D1 when the image processing program 51 recognizes the AR box 10-1. An image M2 that allows the image recognition information D1 drawn as a design to pass through and has a visual effect as if there is a room in which a square window is arranged inside the AR box 10-1 is displayed in the AR box 10-1. Overlay.

さらに、映像処理プログラム51は、本実施の形態では、映像認識情報D1を透過するオブジェクトOをARボックス10−1に配置する。 Further, in the present embodiment, the video processing program 51 arranges the object O that transmits the video recognition information D1 in the AR box 10-1.

映像M2及びオブジェクトOが映像認識情報D1を透過する透過度と映像認識情報D1が映像M2及びオブジェクトOを透過する透過度とは、透過度を100%とした場合において、一方が上昇すると他方が下降するという相関的な関係が成立する。 The transparency of the image M2 and the object O passing through the image recognition information D1 and the transparency of the image recognition information D1 passing through the image M2 and the object O are such that when the transparency is 100%, when one increases, the other increases. A correlated relationship of descending is established.

本実施の形態では、カメラ40と映像認識情報D1との間の距離が30cmの場合において、映像M2及びオブジェクトOが映像認識情報D1を透過する透過度が例えば30%であり、映像認識情報D1が映像M2及びオブジェクトOを透過する透過度が例えば70%である。 In the present embodiment, when the distance between the camera 40 and the image recognition information D1 is 30 cm, the transparency through which the image M2 and the object O pass through the image recognition information D1 is, for example, 30%, and the image recognition information D1 The transparency of the image M2 and the object O is, for example, 70%.

次に、カメラ40と映像認識情報D1との間の距離を近接させる(例えば20cm)と、図6(b)で示すように、映像M2及びオブジェクトOが映像認識情報D1を透過する透過度が上昇する一方で、映像認識情報D1が映像M2及びオブジェクトOを透過する透過度が下降する。 Next, when the distance between the camera 40 and the image recognition information D1 is brought close (for example, 20 cm), as shown in FIG. 6B, the transparency through which the image M2 and the object O pass through the image recognition information D1 is increased. While increasing, the transparency of the image recognition information D1 passing through the image M2 and the object O decreases.

本実施の形態では、映像M2及びオブジェクトOが映像認識情報D1を透過する透過度が30%から例えば55%に上昇し、映像認識情報D1が映像M2及びオブジェクトOを透過する透過度が70%から例えば45%に下降する。 In the present embodiment, the transparency through which the video M2 and the object O pass through the video recognition information D1 increases from 30% to, for example, 55%, and the transparency through which the video recognition information D1 passes through the video M2 and the object O is 70%. From, for example, to 45%.

カメラ40と映像認識情報D1との間の距離を更に近接させる(例えば10cm)と、図6(c)で示すように、映像M2及びオブジェクトOが映像認識情報D1を透過する透過度が55%から例えば100%に上昇し、映像認識情報D1が映像M2及びオブジェクトOを透過する透過度が45%から例えば0%に下降する。 When the distance between the camera 40 and the image recognition information D1 is further reduced (for example, 10 cm), as shown in FIG. 6C, the transmittance through which the image M2 and the object O pass through the image recognition information D1 is 55%. The transmittance of the image recognition information D1 passing through the image M2 and the object O decreases from 45% to, for example, 0%.

なお、上述したカメラ40と映像認識情報D1との間の距離と、透過率は任意に変更可能である。 The distance between the camera 40 and the image recognition information D1 described above and the transmittance can be arbitrarily changed.

図7で示すように、映像処理モジュール51cは、ARボックス10−1に隣接して現実環境に配置されたARボックス10−2をカメラ40がモニターして、ARボックス10−2に配置された映像認識情報D2を認識すると、ARボックス10−2を認識したことを示す認識映像、例えば本実施の形態では、煙玉が破裂してARボックス10−2が煙幕に包まれるような視覚効果を伴う映像M3をARボックス10−2に重ね合わせる。 As shown in FIG. 7, the image processing module 51c is arranged in the AR box 10-2 with the camera 40 monitoring the AR box 10-2 arranged in the real environment adjacent to the AR box 10-1. When the image recognition information D2 is recognized, a recognition image indicating that the AR box 10-2 has been recognized, for example, in the present embodiment, a visual effect that the smoke ball bursts and the AR box 10-2 is wrapped in a smoke screen. The accompanying image M3 is superimposed on the AR box 10-2.

さらに、映像処理モジュール51cは、図8で示すように、ARボックス10−2に、ARボックス10−2の映像認識情報D2を透過させる視覚効果を伴う映像M4を重ね合わせ、映像M4をARボックス10−2に重ね合わせる際に、距離検知モジュール51bで検知したカメラ40と映像認識情報D2との間の距離に応じて、ARボックス10−2の映像認識情報D2を透過させる程度を変更する映像処理を行う。 Further, as shown in FIG. 8, the image processing module 51c superimposes the image M4 with the visual effect of transmitting the image recognition information D2 of the AR box 10-2 on the AR box 10-2, and puts the image M4 in the AR box. When superimposing on 10-2, the degree of transmitting the image recognition information D2 of the AR box 10-2 is changed according to the distance between the camera 40 detected by the distance detection module 51b and the image recognition information D2. Perform processing.

具体的には、図8(a)で示すように、映像処理プログラム51がARボックス10−2を認識した際におけるカメラ40と映像認識情報D2との間の距離(例えば17cm)に基づいて、図案として描画された映像認識情報D2を透過させて例えばARボックス10−2の内部に上辺が弧を描く窓が配置された部屋が存在するかのような視覚効果を伴う映像M4を、ARボックス10−2に重ね合わせる。 Specifically, as shown in FIG. 8A, based on the distance (for example, 17 cm) between the camera 40 and the image recognition information D2 when the image processing program 51 recognizes the AR box 10-2. An image M4 with a visual effect as if there is a room in which a window whose upper side draws an arc is arranged inside the AR box 10-2 by transmitting the image recognition information D2 drawn as a design is displayed in the AR box. Overlay on 10-2.

本実施の形態では、カメラ40と映像認識情報D2との間の距離が17cmの場合において、映像M4が映像認識情報D2を透過する透過度が例えば30%であり、映像認識情報D2が映像M4を透過する透過度が例えば70%である。 In the present embodiment, when the distance between the camera 40 and the image recognition information D2 is 17 cm, the transmittance through which the image M4 transmits the image recognition information D2 is, for example, 30%, and the image recognition information D2 is the image M4. The transparency of the material is, for example, 70%.

次に、カメラ40と映像認識情報D2との間の距離を近接させる(例えば12cm)と、図8(b)で示すように、映像M4が映像認識情報D2を透過する透過度が上昇する一方で、映像認識情報D1が映像M4を透過する透過度が下降する。 Next, when the distance between the camera 40 and the image recognition information D2 is brought close (for example, 12 cm), the transmittance through which the image M4 passes through the image recognition information D2 increases, as shown in FIG. 8B. Then, the transmittance through which the image recognition information D1 passes through the image M4 decreases.

本実施の形態では、映像M4が映像認識情報D2を透過する透過度が30%から例えば55%に上昇し、映像認識情報D2が映像M4を透過する透過度が70%から例えば45%に下降する。 In the present embodiment, the transmittance through which the image M4 transmits the image recognition information D2 increases from 30% to, for example, 55%, and the transmittance through which the image recognition information D2 transmits the image M4 decreases from 70%, for example, 45%. To do.

このとき、左右方向において互いに隣接して現実環境に配置されたARボックス10−1とARボックス10−2とを近接させると、ARボックス10−1に配置されたオブジェクトOがARボックス10−2に移動する。 At this time, when the AR box 10-1 and the AR box 10-2 arranged adjacent to each other in the left-right direction are brought close to each other, the object O arranged in the AR box 10-1 becomes the AR box 10-2. Move to.

カメラ40と映像認識情報D1との間の距離を更に近接させる(例えば8cm)と、図8(c)で示すように、映像M4が映像認識情報D1を透過する透過度が55%から例えば100%に上昇し、映像認識情報D1が映像M4を透過する透過度が45%から例えば0%に下降する。 When the distance between the camera 40 and the image recognition information D1 is further reduced (for example, 8 cm), as shown in FIG. 8C, the transmittance through which the image M4 passes through the image recognition information D1 is 55% to 100, for example. The transmittance of the image recognition information D1 passing through the image M4 decreases from 45% to, for example, 0%.

このとき、オブジェクトOが映像認識情報D1を透過する透過度も100%である一方、映像認識情報D1がオブジェクトOを透過する透過度は0%である。 At this time, the transparency of the object O passing through the image recognition information D1 is also 100%, while the transparency of the image recognition information D1 passing through the object O is 0%.

次に、本実施の形態に係る映像処理システム1の作動概略について説明する。 Next, the outline of the operation of the video processing system 1 according to the present embodiment will be described.

まず、カメラ40が現実環境に配置されるARボックス10−1をモニターして映像認識情報D1を認識すると、図5で示したように、映像M1がARボックス10−1に重ね合わせられてディスプレイ41に表示される。 First, when the camera 40 monitors the AR box 10-1 arranged in the real environment and recognizes the image recognition information D1, the image M1 is superimposed on the AR box 10-1 and displayed as shown in FIG. It is displayed on 41.

このときのカメラ40と映像認識情報D1との間の距離に基づいて、図6(a)で示したように、ARボックス10−1の映像認識情報D1を透過する映像M2がARボックス10−1に重ね合わせられるとともに、映像認識情報D1を透過するオブジェクトOがARボックス10−1に配置されて、ディスプレイ41に表示される。 Based on the distance between the camera 40 and the image recognition information D1 at this time, as shown in FIG. 6A, the image M2 that passes through the image recognition information D1 of the AR box 10-1 is the AR box 10-. An object O that is superimposed on 1 and that transmits the image recognition information D1 is arranged in the AR box 10-1 and displayed on the display 41.

カメラ40とARボックス10−1との距離を近接させてカメラ40と映像認識情報D1との間の距離を近接させると、図6(b)、(c)で示したように、映像M2及びオブジェクトOが映像認識情報D1を透過する透過度が上昇する一方で、映像認識情報D1が映像M2及びオブジェクトOを透過する透過度が下降する映像処理が実行され、ディスプレイ41に表示される。 When the distance between the camera 40 and the AR box 10-1 is made close and the distance between the camera 40 and the image recognition information D1 is made close, as shown in FIGS. 6 (b) and 6 (c), the images M2 and While the transparency of the object O passing through the image recognition information D1 is increased, the image processing in which the image recognition information D1 is transmitted through the image M2 and the object O is decreased is executed and displayed on the display 41.

この状態において、ARボックス10−1に隣接して現実環境に配置されたARボックス10−2をモニターして映像認識情報D2を認識すると、図7で示したように、映像M3がARボックス10−2に重ね合わせられてディスプレイ41に表示される。 In this state, when the image recognition information D2 is recognized by monitoring the AR box 10-2 arranged in the real environment adjacent to the AR box 10-1, the image M3 is the AR box 10 as shown in FIG. It is superimposed on -2 and displayed on the display 41.

このときのカメラ40と映像認識情報D2との間の距離に基づいて、図8(a)で示したように、ARボックス10−2の映像認識情報D2を透過する映像M4がARボックス10−2に重ね合わせられて、ディスプレイ41に表示される。 Based on the distance between the camera 40 and the image recognition information D2 at this time, as shown in FIG. 8A, the image M4 transmitted through the image recognition information D2 of the AR box 10-2 is the AR box 10-. It is superimposed on 2 and displayed on the display 41.

カメラ40とARボックス10−2との距離を近接させてカメラ40と映像認識情報D2との間の距離を近接させると、図8(b)、(c)で示したように、映像M4が映像認識情報D2を透過する透過度が上昇する一方で、映像認識情報D2が映像M4を透過する透過度が下降する映像処理が実行され、ディスプレイ41に表示される。 When the distance between the camera 40 and the AR box 10-2 is made close and the distance between the camera 40 and the image recognition information D2 is made close, as shown in FIGS. 8 (b) and 8 (c), the image M4 is displayed. While the transparency of the image recognition information D2 is increased, the image processing in which the image recognition information D2 is transmitted through the image M4 is decreased is executed and displayed on the display 41.

このとき、左右方向において互いに隣接して現実環境に配置されたARボックス10−1とARボックス10−2とを近接させると、ARボックス10−1に配置されたオブジェクトOがARボックス10−2に移動する。 At this time, when the AR box 10-1 and the AR box 10-2 arranged adjacent to each other in the left-right direction are brought close to each other, the object O arranged in the AR box 10-1 becomes the AR box 10-2. Move to.

このように、本実施の形態によれば、立方体状のARボックス10−1、10−2に対応する映像M2、M4が関連づけられた映像認識情報D1、D2を認識して、現実環境に配置されるARボックス10−1、10−2についてユーザUが知覚する物理的な存在感を損なわしめることがない状態で、立方体状であるというARボックス10−1、10−2の有する特徴を活用できる映像M2、M4がARボックス10−1、10−2に重ね合わせられる。 As described above, according to the present embodiment, the video recognition information D1 and D2 associated with the video M2 and M4 corresponding to the cubic AR boxes 10-1 and 10-2 are recognized and arranged in the real environment. Utilizing the feature of AR boxes 10-1 and 10-2 that the AR boxes 10-1 and 10-2 are cubic in a state that does not impair the physical presence perceived by the user U. The resulting images M2 and M4 are superimposed on the AR boxes 10-1 and 10-2.

したがって、ユーザUがARボックス10−1、10−2について知覚する現実環境を活用した高度な拡張現実がもたらされることから、ユーザUの興趣が向上する。 Therefore, a high degree of augmented reality utilizing the real environment that the user U perceives about the AR boxes 10-1 and 10-2 is brought about, and the interest of the user U is improved.

しかも、本実施の形態では、映像M2、M4をARボックス10−1、10−2に重ね合わせる際に、距離検知モジュール51bで検知したカメラ40と映像認識情報D1、D2との間の距離に応じて、ARボックス10−1、10−2の映像認識情報D1、D2を透過させる程度を変更する映像処理を行う。 Moreover, in the present embodiment, when the images M2 and M4 are superimposed on the AR boxes 10-1 and 10-2, the distance between the camera 40 detected by the distance detection module 51b and the image recognition information D1 and D2 is set. Accordingly, video processing is performed to change the degree to which the video recognition information D1 and D2 of the AR boxes 10-1 and 10-2 are transmitted.

したがって、ユーザUの興趣が更に向上することが期待される。 Therefore, it is expected that the interest of the user U will be further improved.

なお、本発明は上記実施の形態に限定されることはなく、発明の趣旨を逸脱しない範囲で種々の変更が可能である。上記実施の形態では、映像M2、M4がARボックス10−1、10−2の内部に窓が配置された部屋が存在するかのような視覚効果を伴う映像である場合を説明したが、例えば宇宙空間や空中、あるいは水中といった任意の空間であってもよい。 The present invention is not limited to the above embodiment, and various modifications can be made without departing from the spirit of the invention. In the above embodiment, the case where the images M2 and M4 are images with a visual effect as if there is a room in which windows are arranged inside the AR boxes 10-1 and 10-2 has been described. It may be any space such as outer space, air, or underwater.

上記実施の形態では、ARボックス10−1、10−2が左右方向において互いに隣接して現実環境に配置される場合を説明したが、例えば、上下方向において互いに隣接して現実環境に配置されるものであってもよく、上方のARボックスから下方のARボックスに、あるいは下方のARボックスから上方のARボックスにオブジェクトOが移動するものであってもよい。 In the above embodiment, the case where the AR boxes 10-1 and 10-2 are arranged adjacent to each other in the left-right direction in the real environment has been described. For example, the AR boxes 10-1 and 10-2 are arranged adjacent to each other in the vertical direction in the real environment. The object O may move from the upper AR box to the lower AR box, or from the lower AR box to the upper AR box.

1 映像処理システム
10−1、10−2 ARボックス(対象物)
20 スマートフォン
30 制御部
40 カメラ(認識手段)
41 ディスプレイ
51 映像処理プログラム
51b 距離検知モジュール
51c 映像処理モジュール
D1、D2 映像認識情報
M1、M3 映像(認識映像)
M2、M4 映像
O オブジェクト
U ユーザ
1 Video processing system 10-1, 10-2 AR box (object)
20 Smartphone 30 Control unit 40 Camera (recognition means)
41 Display 51 Video processing program 51b Distance detection module 51c Video processing module D1, D2 Video recognition information M1, M3 Video (recognition video)
M2, M4 Video O Object U User

Claims (7)

ユーザが知覚可能な現実環境に配置される立体形状の対象物を備える映像処理システムであって、
立体形状の前記対象物に対応する映像が関連づけられて前記対象物に配置される映像認識情報と、
該映像認識情報を認識して前記映像を前記対象物に重ね合わせる映像処理プログラムと、
を備える映像処理システム。
A video processing system that includes a three-dimensional object that is placed in a real environment that can be perceived by the user.
The image recognition information in which the image corresponding to the three-dimensional object is associated and arranged on the object is
An image processing program that recognizes the image recognition information and superimposes the image on the object.
Video processing system equipped with.
前記映像処理プログラムは、
前記映像認識情報を認識した際に前記対象物に認識映像を重ね合わせる、
請求項1に記載の映像処理システム。
The video processing program
When the image recognition information is recognized, the recognition image is superimposed on the object.
The video processing system according to claim 1.
前記映像は、
前記対象物の前記映像認識情報を透過させる視覚効果を伴う映像である、
請求項1または2に記載の映像処理システム。
The video is
An image with a visual effect that transmits the image recognition information of the object.
The video processing system according to claim 1 or 2.
前記映像認識情報を認識する認識手段を備え、
前記映像処理プログラムは、
前記対象物に前記映像を重ね合わせる際に前記認識手段と前記映像認識情報との間の距離に応じて前記対象物の前記映像認識情報を透過させる程度を変更する、
請求項3に記載の映像処理システム。
A recognition means for recognizing the video recognition information is provided.
The video processing program
When superimposing the image on the object, the degree to which the image recognition information of the object is transmitted is changed according to the distance between the recognition means and the image recognition information.
The video processing system according to claim 3.
前記映像処理プログラムは、
前記対象物に前記映像を重ね合わせる際に前記対象物にオブジェクトを配置する、
請求項1〜4のいずれか1項に記載の映像処理システム。
The video processing program
An object is placed on the object when the image is superimposed on the object.
The video processing system according to any one of claims 1 to 4.
前記映像認識情報が配置された前記対象物を複数備え、
前記映像処理プログラムは、
複数の前記対象物が前記現実環境において隣接して配置される際に複数の前記対象物にそれぞれ配置された前記映像認識情報を認識して前記映像を複数の前記対象物に重ね合わせる、
請求項1〜5のいずれか1項に記載の映像処理システム。
A plurality of the objects on which the image recognition information is arranged are provided.
The video processing program
When a plurality of the objects are arranged adjacent to each other in the real environment, the image recognition information arranged in each of the plurality of objects is recognized and the image is superimposed on the plurality of objects.
The video processing system according to any one of claims 1 to 5.
前記映像処理プログラムは、
複数の前記対象物に前記映像を重ね合わせる際に複数の前記対象物のうちいずれか一の前記対象物にオブジェクトを配置し、
該オブジェクトが配置された一の前記対象物に近接して配置される他の前記対象物に前記オブジェクトを移動させる、
請求項6に記載の映像処理システム。
The video processing program
When superimposing the image on the plurality of the objects, the object is placed on the object of any one of the plurality of objects, and the object is placed on the object.
Move the object to another object that is placed in close proximity to one object on which the object is placed.
The video processing system according to claim 6.
JP2019184434A 2019-10-07 2019-10-07 Video processing system Active JP7442168B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019184434A JP7442168B2 (en) 2019-10-07 2019-10-07 Video processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019184434A JP7442168B2 (en) 2019-10-07 2019-10-07 Video processing system

Publications (2)

Publication Number Publication Date
JP2021060789A true JP2021060789A (en) 2021-04-15
JP7442168B2 JP7442168B2 (en) 2024-03-04

Family

ID=75380254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019184434A Active JP7442168B2 (en) 2019-10-07 2019-10-07 Video processing system

Country Status (1)

Country Link
JP (1) JP7442168B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4926817B2 (en) 2006-08-11 2012-05-09 キヤノン株式会社 Index arrangement information measuring apparatus and method
JP2010026818A (en) 2008-07-18 2010-02-04 Geisha Tokyo Entertainment Inc Image processing program, image processor, and image processing method
JP5675260B2 (en) 2010-10-15 2015-02-25 任天堂株式会社 Image processing program, image processing apparatus, image processing system, and image processing method
JP6192264B2 (en) 2012-07-18 2017-09-06 株式会社バンダイ Portable terminal device, terminal program, augmented reality system, and clothing
JP6618681B2 (en) 2013-12-25 2019-12-11 キヤノンマーケティングジャパン株式会社 Information processing apparatus, control method and program therefor, and information processing system
JP2016093362A (en) 2014-11-14 2016-05-26 株式会社コロプラ Control program of virtual camera within game space, and game system
JP2016093363A (en) 2014-11-14 2016-05-26 株式会社コロプラ Control program of virtual camera within game space, and game system
WO2019181153A1 (en) 2018-03-20 2019-09-26 ソニー株式会社 Information processing device, information processing method, and recording medium

Also Published As

Publication number Publication date
JP7442168B2 (en) 2024-03-04

Similar Documents

Publication Publication Date Title
US11516381B2 (en) Display device and operating method thereof with adjustments related to an image display according to bending motion of the display device
US9055190B2 (en) Arrangement of multiple audiovisual streams
US9075429B1 (en) Distortion correction for device display
US10360871B2 (en) Method for sharing screen with external display device by electronic device and electronic device
US11164546B2 (en) HMD device and method for controlling same
US8135440B2 (en) System for using mobile communication terminal as pointer and method and medium thereof
KR102389185B1 (en) Electronic device and method for executing function using input interface displayed via at least portion of content
KR20180107782A (en) Virtual Reality Helmets and How to Use them
JP7005161B2 (en) Electronic devices and their control methods
CN106997283B (en) Information processing method and electronic equipment
JP7181375B2 (en) Target object motion recognition method, device and electronic device
KR102499354B1 (en) Electronic apparatus for providing second content associated with first content displayed through display according to motion of external object, and operating method thereof
KR102413074B1 (en) User terminal device, Electronic device, And Method for controlling the user terminal device and the electronic device thereof
US10114501B2 (en) Wearable electronic device using a touch input and a hovering input and controlling method thereof
CN214847678U (en) Electronic device supporting screen movement of compensated display
CN212675896U (en) Electronic device supporting screen movement of compensated display
US11867495B2 (en) Electronic device for providing image data using augmented reality and control method for same
CN106126148B (en) Display control method and electronic equipment
JP2021060789A (en) Video processing system
JP7005160B2 (en) Electronic devices and their control methods
KR20180052501A (en) Display device and operating method thereof for the same
KR102510841B1 (en) A method for driving a plurality of pixel lines and an electronic device thereof
US11237671B1 (en) Temporal filter touch detection
KR102605451B1 (en) Electronic device and method for providing multiple services respectively corresponding to multiple external objects included in image
US11281337B1 (en) Mirror accessory for camera based touch detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240213

R150 Certificate of patent or registration of utility model

Ref document number: 7442168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150