JP7139236B2 - Image processing device, image processing method and image processing program - Google Patents

Image processing device, image processing method and image processing program Download PDF

Info

Publication number
JP7139236B2
JP7139236B2 JP2018235649A JP2018235649A JP7139236B2 JP 7139236 B2 JP7139236 B2 JP 7139236B2 JP 2018235649 A JP2018235649 A JP 2018235649A JP 2018235649 A JP2018235649 A JP 2018235649A JP 7139236 B2 JP7139236 B2 JP 7139236B2
Authority
JP
Japan
Prior art keywords
image processing
image
target object
virtual object
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018235649A
Other languages
Japanese (ja)
Other versions
JP2020098409A (en
Inventor
高志 小國
悠吾 松田
真一郎 山下
亮介 平松
敬隆 新堂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018235649A priority Critical patent/JP7139236B2/en
Publication of JP2020098409A publication Critical patent/JP2020098409A/en
Application granted granted Critical
Publication of JP7139236B2 publication Critical patent/JP7139236B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing method, and an image processing program.

従来、ユーザに直観的な情報提示を行うために、現実空間の画像または映像をコンピュータで処理して仮想情報を重畳するAR(拡張現実)技術が存在する。例えば、近年では、ユーザが撮影した映像内に家具などの商品を仮想的に設置するアプリが存在する。このようなアプリを使用したユーザは、購入前の商品を実際の部屋に設置したときの雰囲気やサイズ感を手軽に知ることができる。 2. Description of the Related Art Conventionally, in order to intuitively present information to a user, there is an AR (Augmented Reality) technology in which images or videos in a real space are processed by a computer and virtual information is superimposed thereon. For example, in recent years, there is an application that virtually places a product such as furniture in a video captured by a user. A user who uses such an application can easily know the atmosphere and size feeling when the product is installed in the actual room before purchase.

しかし、上述のアプリでは、既存の家具が設置されている場所に新たな家具のAR画像を配置したい場合、既存の家具を別の場所へ移動させる等の手間が発生する。これに対して、特許文献1には、現実空間の元画像から「モノ」を消去するDR(減損現実)技術を利用する方法が開示されている。具体的には、特許文献1では、元画像から家具を除去し、除去後の画像に基づいた3Dモデルに対して、新たな家具の画像を配置する。これにより、既存の家具が新たな家具に仮想的に置き換えられた3Dモデルが生成される。 However, with the above-described application, when it is desired to place an AR image of new furniture in a place where existing furniture is installed, it is troublesome to move the existing furniture to another place. On the other hand, Patent Literature 1 discloses a method using a DR (depleted reality) technique for erasing "things" from an original image of the physical space. Specifically, in Patent Literature 1, furniture is removed from the original image, and a new image of the furniture is arranged on a 3D model based on the removed image. As a result, a 3D model is generated in which existing furniture is virtually replaced with new furniture.

特開2015-125774号公報JP 2015-125774 A

しかし、特許文献1に開示の技術では、現実空間の元画像に対する減損現実の度合いをユーザの設定に基づいて調整している。このため、元画像から所望の家具のみを除去したい場合には、そのような減損現実の度合いをユーザが設定する必要がある。このため、ユーザによる設定が元画像毎に必要であり、ユーザの手間が大きくなる。 However, in the technique disclosed in Patent Document 1, the degree of impairment reality for the original image in the real space is adjusted based on the user's settings. For this reason, if the user wants to remove only the desired furniture from the original image, it is necessary for the user to set the degree of such depletion reality. For this reason, the setting by the user is required for each original image, which increases the user's time and effort.

本発明は、画像内の物品の容易に置き換えることができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of easily replacing an article in an image.

本発明の一態様に係る画像処理装置は、ユーザ情報に含まれた物品の情報に基づいて、当該物品の仮想オブジェクトを取得する仮想オブジェクト取得部と、撮像装置によって撮像された元画像を取得する画像取得部と、前記物品に基づいて前記元画像から標的オブジェクトを検出する標的オブジェクト検出部と、前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部と、を備えることを特徴とする。 An image processing apparatus according to an aspect of the present invention acquires an original image captured by a virtual object acquisition unit that acquires a virtual object of an article based on information on the article included in user information, and an imaging device. an image acquisition unit, a target object detection unit that detects a target object from the original image based on the article, and an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object; characterized by comprising

本発明の別の態様に係る画像処理装置は、ユーザが利用する撮像装置によって撮像された元画像を取得する画像取得部と、前記元画像から所定領域に配置された標的オブジェクトを検出する標的オブジェクト検出部と、物品の仮想オブジェクトを取得する仮想オブジェクト取得部と、前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部と、を備えることを特徴とする。 An image processing apparatus according to another aspect of the present invention includes an image acquisition unit that acquires an original image captured by an imaging device used by a user, and a target object that detects a target object arranged in a predetermined area from the original image. It is characterized by comprising a detection unit, a virtual object acquisition unit that acquires a virtual object of an article, and an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object.

本発明の一態様に係る画像処理装置によれば、元画像内の適切な現実オブジェクトをユーザ所望の物品の仮想オブジェクトに自動的に置き換えることができる。これにより、ユーザは、現実空間内の物品を移動させたり、減損現実の度合いを設定したりといった手間をかけずに、画像内の物品を容易に置き換えることができる。
本発明の一態様に係る画像処理装置によれば、元画像内の所定領域に配置された物品を、任意の物品の仮想オブジェクトに自動的に置き換えることができる。これにより、ユーザは、上述と同様、画像内の物品を容易に置き換えることができる。
According to the image processing apparatus according to the aspect of the present invention, it is possible to automatically replace an appropriate physical object in the original image with a virtual object of the article desired by the user. This allows the user to easily replace the article in the image without moving the article in the physical space or setting the degree of depletion reality.
According to the image processing apparatus according to the aspect of the present invention, it is possible to automatically replace an article arranged in a predetermined area in an original image with a virtual object of an arbitrary article. This allows the user to easily replace the item in the image as described above.

第1実施形態の画像処理システムの概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of an image processing system according to a first embodiment; FIG. 第1実施形態のサーバ装置の概略構成を示すブロック図。1 is a block diagram showing a schematic configuration of a server device according to a first embodiment; FIG. 商品選択コンテンツのカート情報ページの一例を示す図。The figure which shows an example of the cart information page of goods selection content. 商品選択コンテンツの商品情報ページの一例を示す図。The figure which shows an example of the product information page of product selection content. 第1実施形態のサーバ装置の画像処理方法の一例を示すフローチャート。4 is a flowchart showing an example of an image processing method of the server device according to the first embodiment; 第1実施形態において処理される画像の加工の流れを模式的に示す図。FIG. 4 is a diagram schematically showing the flow of processing an image processed in the first embodiment; 第1実施形態のサーバ装置の画像加工処理の一例を示すフローチャート。4 is a flowchart showing an example of image processing of the server device of the first embodiment; 第1実施形態の現実空間および加工画像の一例を示す図。4A and 4B are diagrams showing an example of a physical space and a processed image according to the first embodiment; FIG. 第2実施形態のサーバ装置の画像処理方法の一例を示すフローチャート。10 is a flowchart showing an example of an image processing method of the server device according to the second embodiment;

[第1実施形態]
本発明の第1実施形態について図面に基づき説明する。
[画像処理システム1]
図1は、本実施形態の画像処理システム1の概略構成を示すブロック図である。
図1に示すように、本実施形態の画像処理システム1は、ユーザ端末10と、本発明の画像処理装置として機能するサーバ装置20と、を備えている。ユーザ端末10とサーバ装置20とは、ネットワーク(例えばインターネット)を介して通信可能に接続されている。
[First embodiment]
A first embodiment of the present invention will be described based on the drawings.
[Image processing system 1]
FIG. 1 is a block diagram showing a schematic configuration of an image processing system 1 of this embodiment.
As shown in FIG. 1, the image processing system 1 of this embodiment includes a user terminal 10 and a server device 20 functioning as the image processing device of the present invention. The user terminal 10 and the server device 20 are communicably connected via a network (for example, the Internet).

本実施形態の画像処理システム1は、例えば電子商取引システムの一部であり、サーバ装置20には、オンラインショップで販売される商品の情報が登録されている。この画像処理システム1において、サーバ装置20は、ユーザ端末10が現実空間を撮像した画像(元画像)に対してDR(減損現実)およびAR(拡張現実)に関する画像処理を施すことにより、現実空間内の物品を所望の商品に仮想的に置き換えた加工画像を生成する。ユーザは、ユーザ端末10に表示される加工画像を見ることにより、現実空間内の物品を所望の商品に置き換えたときの雰囲気やサイズ感などを直感的に知ることができる。
以下、このような画像処理システム1の具体的構成について詳細に説明する。
The image processing system 1 of the present embodiment is, for example, a part of an electronic commerce system, and the server device 20 registers information of products sold at an online shop. In this image processing system 1, the server device 20 performs image processing related to DR (degraded reality) and AR (augmented reality) on an image (original image) captured by the user terminal 10 in the real space. A processed image is generated in which the article inside is virtually replaced with the desired article. By viewing the processed image displayed on the user terminal 10, the user can intuitively know the atmosphere, size, etc., when the article in the physical space is replaced with the desired article.
A specific configuration of such an image processing system 1 will be described in detail below.

[ユーザ端末]
ユーザ端末10は、例えばスマートフォンやタブレット型端末などのコンピュータであり、この種のコンピュータが有する基本的なハードウェアを有する。
具体的には、ユーザ端末10は、図1に示すように、端末通信部11、入力操作部12、端末記憶部13、端末制御部14、ディスプレイ15およびカメラ16を備えている。
[User terminal]
The user terminal 10 is, for example, a computer such as a smart phone or a tablet terminal, and has basic hardware of such a computer.
Specifically, the user terminal 10 includes a terminal communication unit 11, an input operation unit 12, a terminal storage unit 13, a terminal control unit 14, a display 15, and a camera 16, as shown in FIG.

端末通信部11は、例えばLAN等を介してネットワークに接続されており、ネットワーク上の他の機器と通信する。
入力操作部12は、ユーザ操作による操作信号を端末制御部14に出力する。入力操作部12としては、例えば、ディスプレイ15と一体に設けられたタッチパネル等を例示できる。
The terminal communication unit 11 is connected to a network via, for example, a LAN, and communicates with other devices on the network.
The input operation unit 12 outputs an operation signal by user operation to the terminal control unit 14 . As the input operation unit 12, for example, a touch panel provided integrally with the display 15 can be exemplified.

端末記憶部13は、例えばメモリやハードディスク等のデータ記録装置により構成されている。端末記憶部13には、ユーザ端末10を制御するための各種プログラム等が記憶される。また、端末記憶部13は、後述するサーバ装置20に処理させる元画像を一時的に記憶する。 The terminal storage unit 13 is composed of a data recording device such as a memory or a hard disk. Various programs and the like for controlling the user terminal 10 are stored in the terminal storage unit 13 . The terminal storage unit 13 also temporarily stores original images to be processed by the server device 20, which will be described later.

端末制御部14は、CPU(Central Processing Unit)等の演算回路、RAM(Random Access Memory)等の記憶回路により構成され、ユーザ端末10の各部を制御する。端末制御部14は、端末記憶部13等に記憶されているプログラムの中から所定のアプリケーション等のプログラム(ソフトウェア)をRAMに展開し、RAMに展開されたプログラムとの協働で、各種処理を実行する。これにより、端末制御部14は、サーバ装置20に対してネットワークを介して通信可能になり、例えば、サーバ装置20が提供する各種サービスの利用や各種データの閲覧が可能となる。
また、端末制御部14は、ユーザの入力操作部12の操作により、例えばカメラ16により撮像された画像(元画像)を、サーバ装置20に送信する。
さらに、端末制御部14は、サーバ装置20によって画像処理された画像(加工画像)をディスプレイ15に表示(出力)させる。
The terminal control unit 14 includes an arithmetic circuit such as a CPU (Central Processing Unit) and a storage circuit such as a RAM (Random Access Memory), and controls each unit of the user terminal 10 . The terminal control unit 14 develops programs (software) such as predetermined applications among the programs stored in the terminal storage unit 13 or the like in RAM, and performs various processes in cooperation with the programs developed in RAM. Run. As a result, the terminal control unit 14 can communicate with the server device 20 via the network, and can use various services and view various data provided by the server device 20, for example.
In addition, the terminal control unit 14 transmits an image (original image) captured by the camera 16 to the server device 20 by the user's operation of the input operation unit 12 .
Further, the terminal control unit 14 causes the display 15 to display (output) an image (processed image) image-processed by the server device 20 .

カメラ16は、本発明の撮像装置に相当し、レンズやイメージセンサなどにより構成される。カメラ16に撮像された画像は、一時的に端末記憶部13に記憶され、端末制御部14によってサーバ装置20に送信される。 The camera 16 corresponds to the imaging device of the present invention, and is composed of a lens, an image sensor, and the like. Images captured by the camera 16 are temporarily stored in the terminal storage unit 13 and transmitted to the server device 20 by the terminal control unit 14 .

[サーバ装置20の構成]
図2は、サーバ装置20の概略構成を示すブロック図である。
図2に示すように、サーバ装置20は、コンピュータにより構成され、通信部21と、記憶部22と、制御部23とを含んでいる。
通信部21は、ネットワークに接続されており、例えばLAN等を介してネットワークに接続されており、ネットワーク上の他の機器と通信する。
[Configuration of server device 20]
FIG. 2 is a block diagram showing a schematic configuration of the server device 20. As shown in FIG.
As shown in FIG. 2 , the server device 20 is configured by a computer and includes a communication section 21 , a storage section 22 and a control section 23 .
The communication unit 21 is connected to a network, for example via a LAN or the like, and communicates with other devices on the network.

記憶部22は、例えばメモリやハードディスク等のデータ記録装置により構成されている。
この記憶部22は、後述する画像処理を実施するための各種プログラムや各種データを記憶する。また、記憶部22は、ユーザデータベース221、商品データベース222、仮想オブジェクトデータベース223、および、画像加工データベース224を含んでいる。
The storage unit 22 is configured by a data recording device such as a memory or a hard disk, for example.
The storage unit 22 stores various programs and various data for performing image processing, which will be described later. The storage unit 22 also includes a user database 221 , a product database 222 , a virtual object database 223 and an image processing database 224 .

商品データベース222には、オンラインショップで販売される商品に関する商品情報が記録されている。この商品情報には、例えば、商品ID、商品名、カテゴリ情報等が含まれる。
ユーザデータベース221には、画像処理システム1を利用するユーザに関するユーザ情報が記憶されている。ユーザ情報は、ユーザ毎に管理されており、このユーザ情報には、例えばユーザID、ユーザ名、ユーザ属性、履歴情報およびリコメンド情報等が含まれる。履歴情報には、閲覧履歴、ブックマーク情報、カート情報および購入履歴などが含まれる。
仮想オブジェクトデータベース223には、商品データベース222に登録されている各商品(例えば商品ID)に対応付けられた仮想オブジェクトが記憶されている。仮想オブジェクトは、例えば商品の構造を三次元座標にて表現する3D画像データである。
画像加工データベース224には、画像処理を行うための画像処理情報が記憶されている。この画像処理情報には、例えば画像認識を行うための学習データなどが記憶されている。
The product database 222 records product information related to products sold at the online shop. This product information includes, for example, product ID, product name, category information, and the like.
The user database 221 stores user information about users who use the image processing system 1 . User information is managed for each user, and includes, for example, user IDs, user names, user attributes, history information, recommendation information, and the like. The history information includes browsing history, bookmark information, cart information, purchase history, and the like.
The virtual object database 223 stores virtual objects associated with each product (for example, product ID) registered in the product database 222 . A virtual object is, for example, 3D image data expressing the structure of a product in three-dimensional coordinates.
Image processing information for performing image processing is stored in the image processing database 224 . This image processing information stores, for example, learning data for performing image recognition.

なお、本実施形態では、サーバ装置20の記憶部22が、商品データベース222、ユーザデータベース221、仮想オブジェクトデータベース223、および、画像加工データベース224を含む構成を例示するが、例えば、ネットワーク上の他の装置に記憶されてもよい。 In this embodiment, the storage unit 22 of the server device 20 exemplifies a configuration including the product database 222, the user database 221, the virtual object database 223, and the image processing database 224. may be stored on the device.

制御部23は、CPU等の演算回路、RAM等の記憶回路により構成され、記憶部22等に記憶されているプログラム(ソフトウェア)をRAMに展開し、RAMに展開されたプログラムとの協働で、各種処理を実行する。そして、制御部23は、記憶部22に記憶された画像処理プログラムを読み込んで実行することで、図2に示すように、画像取得部231、仮想オブジェクト取得部232、標的オブジェクト検出部233、画像加工部234等として機能する。各機能については、後述にて詳細に説明する。 The control unit 23 is composed of an arithmetic circuit such as a CPU and a memory circuit such as a RAM. , performs various processing. By reading and executing the image processing program stored in the storage unit 22, the control unit 23 obtains an image acquisition unit 231, a virtual object acquisition unit 232, a target object detection unit 233, an image It functions as the processing unit 234 and the like. Each function will be described in detail later.

[画像処理方法]
次に、画像処理システム1において実施される各処理について説明する。
(事前処理)
本実施形態において、サーバ装置20は、画像処理を行う前に、商品情報(例えば商品ID)をユーザデータベース221に記憶させる処理を行う。
具体的には、サーバ装置20は、ユーザ端末10から受信した商品選択コンテンツ要求に基づき、商品選択コンテンツをユーザ端末10に送信する。これにより、ユーザ端末10のディスプレイ15には、商品選択コンテンツが表示される。
なお、サーバ装置20がユーザ端末10に対して提供する商品選択コンテンツは、例えば、オンラインショッピングを提供するサービスの一部であり、ブラウザ等の汎用的なアプリケーションを介して提供されてもよく、当該サービスの提供を行うためのアプリケーションを介して提供されてもよい。
[Image processing method]
Next, each process performed in the image processing system 1 will be described.
(pretreatment)
In this embodiment, the server device 20 performs processing for storing product information (for example, product ID) in the user database 221 before performing image processing.
Specifically, the server device 20 transmits product selection content to the user terminal 10 based on the product selection content request received from the user terminal 10 . Thereby, the product selection content is displayed on the display 15 of the user terminal 10 .
Note that the product selection content provided by the server device 20 to the user terminal 10 is, for example, part of a service that provides online shopping, and may be provided via a general-purpose application such as a browser. It may be provided through an application for providing the service.

ユーザ端末10では、ユーザが、ディスプレイ15に表示される商品選択コンテンツのページを見ながら、オンラインショップで提供される商品を選択する操作を行う。ここで、「商品を選択する」操作とは、例えば、商品の詳細情報を閲覧する、商品をブックマークに登録する、または、商品をカートに入れる等の操作である。 On the user terminal 10 , the user performs an operation of selecting a product offered at the online shop while looking at the product selection content page displayed on the display 15 . Here, the operation of "selecting a product" is, for example, an operation of viewing detailed information on the product, registering the product in a bookmark, or adding the product to the cart.

サーバ装置20は、ユーザ端末10から受信する操作情報に基づいて、ユーザが選択した商品の商品情報(例えば商品ID)を、ユーザデータベース221の履歴情報(例えば閲覧履歴、ブックマーク情報またはカート情報)に記憶させる。
以下、ユーザデータベース221の履歴情報に記憶された商品を、総じてユーザ選択商品と称する。
Based on the operation information received from the user terminal 10, the server device 20 stores the product information (for example, product ID) of the product selected by the user as history information (for example, viewing history, bookmark information, or cart information) in the user database 221. Memorize.
Hereinafter, products stored in the history information of the user database 221 are generally referred to as user-selected products.

少なくとも1つのユーザ選択商品がユーザデータベース221に記憶された後、ユーザは、商品選択コンテンツの任意のページ(例えば図3または図4参照)から「配置する」ボタンをタップする。サーバ装置20は、ユーザ端末10から受信する操作情報に基づいて、画像処理プログラムを実行し、以下に説明する画像処理を実施する。 After at least one user-selected item is stored in the user database 221, the user taps the "Place" button from any page of the item-selected content (eg, see FIG. 3 or 4). The server device 20 executes the image processing program based on the operation information received from the user terminal 10, and performs the image processing described below.

(画像処理)
図5は、サーバ装置20における画像処理を示すフローチャートである。
まず、仮想オブジェクト取得部232が、ユーザデータベース221に記憶されたユーザ選択商品を参照し、当該ユーザ選択商品の商品IDに対応付けられた仮想オブジェクトを、仮想オブジェクトデータベース223から取得する(ステップS1;仮想オブジェクト取得ステップ)。
(Image processing)
FIG. 5 is a flowchart showing image processing in the server device 20. As shown in FIG.
First, the virtual object acquisition unit 232 refers to the user-selected product stored in the user database 221, and acquires the virtual object associated with the product ID of the user-selected product from the virtual object database 223 (step S1; virtual object acquisition step).

ここで、仮想オブジェクト取得部232は、ユーザ端末10から受信した操作情報に基づいて、ユーザデータベース221のうち、閲覧履歴、ブックマーク情報またはカート情報のいずれの記憶領域を参照するか選択してもよい。
例えば、カート情報を示すページ内の「配置する」ボタンがタップされた旨を含む操作情報を受信した場合、仮想オブジェクト取得部232は、カート情報を参照し、カート情報内のユーザ選択商品に対応する仮想オブジェクトを取得してもよい。この場合、取得される仮想オブジェクトは複数であってもよい。
また、特定商品の商品情報を示すページ内の「配置する」ボタンがタップされた旨を含む操作情報を受信した場合、仮想オブジェクト取得部232は、閲覧履歴を参照し、閲覧履歴内に一番新しく記憶されているユーザ選択商品に対応する仮想オブジェクトを取得してもよい。
以下では、説明の簡略化のために、1つの仮想オブジェクトが取得された場合を説明する。
Here, based on the operation information received from the user terminal 10, the virtual object acquisition unit 232 may select which storage area of the browsing history, bookmark information, or cart information in the user database 221 to refer to. .
For example, when receiving operation information including the fact that the “Place” button in the page showing cart information has been tapped, the virtual object acquisition unit 232 refers to the cart information and corresponds to the product selected by the user in the cart information. You may get a virtual object that In this case, a plurality of virtual objects may be obtained.
In addition, when receiving operation information including the fact that the “Place” button in the page showing product information of a specific product has been tapped, the virtual object acquisition unit 232 refers to the browsing history and selects the first A virtual object corresponding to the newly stored user-selected item may be obtained.
In the following, for simplification of explanation, a case where one virtual object is acquired will be explained.

また、画像取得部231は、ユーザ端末10に対してカメラ起動要求を送信する。当該要求を受信したユーザ端末10は、カメラ16の動作を開始させる。そして、ユーザがカメラ16を所望のスペース(例えばユーザの部屋の一部)に向けることで、カメラ16は、現実空間を被写体とした元画像を撮像する。そして、端末制御部14が、カメラ16により撮像された元画像をサーバ装置20に送信する。これにより、画像取得部231は、ユーザ端末10から送信された元画像を取得する(ステップS2;画像取得ステップ)。 The image acquisition unit 231 also transmits a camera activation request to the user terminal 10 . Upon receiving the request, the user terminal 10 causes the camera 16 to start operating. When the user points the camera 16 at a desired space (for example, a part of the user's room), the camera 16 captures an original image of the real space as a subject. Then, the terminal control unit 14 transmits the original image captured by the camera 16 to the server device 20 . Thereby, the image acquisition unit 231 acquires the original image transmitted from the user terminal 10 (step S2; image acquisition step).

次に、標的オブジェクト検出部233が、取得された元画像に含まれる現実オブジェクトを検出する(ステップS3)。ここで、現実オブジェクトとは、現実空間に存在する物品(例えば家具など)の画像情報であり、画像認識技術によって検出可能である。なお、現実空間に複数の物品が存在する場合、標的オブジェクト検出部233は、元画像に含まれる複数の現実オブジェクトを検出してもよい。
例えば、図6の上段部分には、元画像の例が示される。この例では、テーブルおよび椅子がそれぞれ現実オブジェクトとして検出される。
Next, the target object detection unit 233 detects a real object included in the acquired original image (step S3). Here, a physical object is image information of an article (for example, furniture) that exists in the physical space, and can be detected by image recognition technology. Note that when a plurality of articles exist in the physical space, the target object detection section 233 may detect a plurality of physical objects included in the original image.
For example, the upper part of FIG. 6 shows an example of the original image. In this example, a table and a chair are each detected as real objects.

次に、標的オブジェクト検出部233は、ステップS1で取得された仮想オブジェクトの特徴量と、ステップS3で検出された現実オブジェクトの特徴量とを、それぞれ算出する。そして、仮想オブジェクトと現実オブジェクトとの間における特徴量の類似度を算出する(ステップS4)。
なお、仮想オブジェクトの特徴量は、標的オブジェクト検出部233が算出するものではなく、ステップS1で取得された仮想オブジェクトの情報に含まれていてもよい。また、仮想オブジェクトの特徴量は、当該仮想オブジェクトが対応するユーザ選択商品の特徴量に相当する。
Next, the target object detection unit 233 calculates the feature amount of the virtual object acquired in step S1 and the feature amount of the real object detected in step S3. Then, the similarity of the feature amount between the virtual object and the real object is calculated (step S4).
Note that the feature amount of the virtual object may not be calculated by the target object detection unit 233, but may be included in the information of the virtual object acquired in step S1. Also, the feature amount of the virtual object corresponds to the feature amount of the user-selected product to which the virtual object corresponds.

次に、標的オブジェクト検出部233は、仮想オブジェクトとの間における特徴量の類似度が閾値以上になる現実オブジェクトが存在するか否かを判断する(ステップS5)。ステップS5でNoの場合、閾値を予め設定された所定値だけ減少させ(ステップS6)、ステップS5に戻る。 Next, the target object detection unit 233 determines whether or not there is a physical object whose feature amount similarity to the virtual object is equal to or greater than a threshold value (step S5). If No in step S5, the threshold is decreased by a predetermined value (step S6), and the process returns to step S5.

一方、ステップS5でYesの場合、標的オブジェクト検出部233は、仮想オブジェクトとの間の特徴量の類似度が閾値以上になる現実オブジェクトを標的オブジェクトに特定する(ステップS7)。以上のステップS3~S7は、本発明の標的オブジェクト検出ステップに相当する。
本実施形態の標的オブジェクト検出ステップ(ステップS3~S7)によれば、元画像に存在する現実オブジェクトのうち、ユーザ選択商品に対する類似度が最も高い現実オブジェクトが標的オブジェクトとして検出される。
例えば、図6の上段部分に示す元画像の例では、仮想オブジェクトが角型テーブルの商品に対応する場合、「椅子の現実オブジェクト」ではなく、「丸型テーブルの現実オブジェクト」が標的オブジェクトとして特定される。
また、仮に、仮想オブジェクトが角型テーブルの商品に対応する場合であって、かつ、元画像から「椅子の現実オブジェクト」のみが検出された場合、閾値を繰り返し減少させることにより、最終的に、「椅子の現実オブジェクト」が標的オブジェクトとして特定される。
On the other hand, in the case of Yes in step S5, the target object detection unit 233 identifies, as the target object, the real object whose feature amount similarity with the virtual object is equal to or greater than the threshold (step S7). The above steps S3 to S7 correspond to the target object detection step of the present invention.
According to the target object detection step (steps S3 to S7) of the present embodiment, the physical object having the highest degree of similarity to the user-selected product among the physical objects present in the original image is detected as the target object.
For example, in the example of the original image shown in the upper part of FIG. 6, if the virtual object corresponds to a product on a rectangular table, the target object is the “real object of the round table” instead of the “real object of the chair”. be done.
Further, if the virtual object corresponds to a square table product and only the "real object of the chair" is detected from the original image, by repeatedly decreasing the threshold value, finally, A "real chair object" is identified as the target object.

次に、画像加工部234が、元画像を加工して加工画像を生成する(ステップS8;画像加工ステップ)。
図7は、ステップS8の画像加工処理を示すフローチャートである。
図7に示すように、画像加工部234は、まず、標的オブジェクトに関する諸条件を算出する(ステップS81)。ここで、諸条件としては、例えば、ユーザ端末10から標的オブジェクトまでの距離、標的オブジェクトの配置方向、標的オブジェクトの背景情報、標的オブジェクトの接地面情報などが挙げられる。
Next, the image processing unit 234 processes the original image to generate a processed image (step S8; image processing step).
FIG. 7 is a flow chart showing the image processing in step S8.
As shown in FIG. 7, the image processing unit 234 first calculates various conditions regarding the target object (step S81). Here, the conditions include, for example, the distance from the user terminal 10 to the target object, the arrangement direction of the target object, the background information of the target object, the ground plane information of the target object, and the like.

なお、画像加工部234は、標的オブジェクトの配置方向を、ユーザ選択商品のカテゴリに基づいて算出してもよい。具体的には、商品データベース222からユーザ選択商品のカテゴリを参照し、画像加工データベース224から当該カテゴリに対応付けられた正面情報を取得する。そして、取得した正面情報に基づいて、標的オブジェクトの正面を検出することにより、標的オブジェクトの配置方向を算出してもよい。例えば、テーブルのカテゴリに対応する正面情報は、4本の脚部のうち、隣り合ういずれか2本の脚部の間の中央部を示す情報などである。また、椅子のカテゴリに対応する正面情報は、背もたれ部分に対して水平方向の反対側に位置する部分を示す情報などである。 Note that the image processing unit 234 may calculate the arrangement direction of the target object based on the category of the user-selected product. Specifically, the category of the user-selected product is referred to from the product database 222 and the front information associated with the category is acquired from the image processing database 224 . Then, the arrangement direction of the target object may be calculated by detecting the front of the target object based on the acquired front information. For example, the front information corresponding to the category of the table is information indicating the central portion between any two adjacent legs among the four legs. Further, the front information corresponding to the chair category is, for example, information indicating a portion located on the opposite side of the backrest portion in the horizontal direction.

次に、画像加工部234が、標的オブジェクトまたは標的オブジェクトの周囲に配置された現実オブジェクトの配置方向に基づいて、仮想オブジェクトの配置方向を決定する(ステップS82)。
例えば、標的オブジェクトに基づいて正面情報を取得できる場合には、仮想オブジェクトの配置方向が標的オブジェクトの配置方向と同じになるように、垂直中心軸を中心にした仮想オブジェクトの回転位置を設定する。
また、標的オブジェクトに基づく正面情報を取得できない場合であって、かつ、標的オブジェクトの周囲に配置された現実オブジェクトに基づいて正面情報を取得できる場合には、仮想オブジェクトの回転位置を当該正面情報に従って設定する。
例えば、図6の上段部分に示す元画像の例では、標的オブジェクト(丸型テーブル)に基づいて正面情報が取得されず、その周囲に配置された現実オブジェクト(椅子)の正面情報に基づいて、仮想オブジェクト(角型テーブル)の配置方向を設定している。
Next, the image processing unit 234 determines the placement direction of the virtual object based on the placement direction of the target object or the physical objects placed around the target object (step S82).
For example, when the front information can be acquired based on the target object, the rotational position of the virtual object about the vertical central axis is set so that the arrangement direction of the virtual object is the same as the arrangement direction of the target object.
Further, when the front information based on the target object cannot be obtained and when the front information can be obtained based on the real objects arranged around the target object, the rotational position of the virtual object is determined according to the front information. set.
For example, in the example of the original image shown in the upper part of FIG. 6, the front information is not acquired based on the target object (round table), and based on the front information of the real object (chair) placed around it, Set the placement direction of the virtual object (square table).

次に、画像加工部234が、標的オブジェクトの背景情報に基づいてマスク画像を生成し、元画像における標的オブジェクトの表示領域(標的領域)にマスク画像を重畳させる(ステップS83)。これにより、元画像から標的オブジェクトを除去する減損現実の処理が行われ、減損画像が生成される。なお、ステップS83の処理は、公知の減損現実(DR)技術を利用できる。
図6の中段部分には、減損画像の例が示される。この例では、元画像から標的オブジェクトとして検出されたテーブルの画像が除去されている。
Next, the image processing unit 234 generates a mask image based on the background information of the target object, and superimposes the mask image on the display area (target area) of the target object in the original image (step S83). This results in a depleted reality process that removes the target object from the original image to produce a depleted image. It should be noted that the process of step S83 can utilize a known impairment reality (DR) technique.
An example of an impaired image is shown in the middle part of FIG. In this example, the image of the table detected as the target object is removed from the original image.

次に、画像加工部234は、減損画像に対して仮想オブジェクトを重畳させる(ステップS84)。
ここで、減損画像における仮想オブジェクトの配置方向は、ステップS82で設定された配置方向である。また、減損画像における仮想オブジェクトの垂直方向の位置は、現実オブジェクトが接地していた接地面に基づいて設定される。また、減損画像における仮想オブジェクトの水平方向の中央位置は、元画像における現実オブジェクトの水平方向の中央位置に基づいて設定される。
なお、ステップS84の処理は、公知の拡張現実(AR)技術を利用できる。
Next, the image processing unit 234 superimposes the virtual object on the degraded image (step S84).
Here, the arrangement direction of the virtual object in the degraded image is the arrangement direction set in step S82. Also, the vertical position of the virtual object in the degraded image is set based on the ground plane on which the real object was grounded. Also, the horizontal central position of the virtual object in the degraded image is set based on the horizontal central position of the real object in the original image.
It should be noted that the process of step S84 can utilize known augmented reality (AR) technology.

これにより、元画像における標的オブジェクトを仮想オブジェクトに置き換えた加工画像が生成される。例えば、図6の下段部分には、加工画像の例が示される。この例では、現実空間に存在する丸型のテーブルの替わりに、仮想オブジェクトである角型のテーブルが部屋に表示されている。 As a result, a processed image is generated in which the target object in the original image is replaced with the virtual object. For example, the lower portion of FIG. 6 shows an example of a processed image. In this example, instead of the round table that exists in the real space, a square table that is a virtual object is displayed in the room.

なお、複数の標的オブジェクトが特定されている場合には、各標的オブジェクトについて、ステップS81~S84の処理が行われてもよい。この場合、元画像における複数の標的オブジェクトのそれぞれが仮想オブジェクトに置き換えられる。
あるいは、複数の標的オブジェクトが特定されている場合、一部の標的オブジェクトを選択してもよい。この選択処理は、ユーザの操作に基づいた処理でもよいし、画面の中央などの所定領域に位置する標的オブジェクトを選択する画像加工部234の処理であってもよい。
Note that when a plurality of target objects are specified, the processing of steps S81 to S84 may be performed for each target object. In this case, each of the multiple target objects in the original image is replaced with a virtual object.
Alternatively, if multiple target objects are identified, some target objects may be selected. This selection process may be a process based on a user's operation, or may be a process of the image processing unit 234 that selects a target object located in a predetermined area such as the center of the screen.

図5に戻って、画像加工部234は、生成した加工画像をユーザ端末10に送信し、ユーザ端末10のディスプレイ15に加工画像を表示させる(ステップS9)。
例えば、図8は、現実空間RSと、この現実空間RSを撮像したときにユーザ端末10のディスプレイ15に表示される加工画像PIとの各例を示している。図8に示す例のように、ユーザは、現実空間を撮像することにより、現実空間の物品がユーザ選択商品に仮想的に置き換わった加工画像を見ることができる。これにより、ユーザは、現実空間内の物品をユーザ選択商品に置き換えた場合の雰囲気やサイズ感などを直感的に知ることができる。
Returning to FIG. 5, the image processing unit 234 transmits the generated processed image to the user terminal 10 and causes the display 15 of the user terminal 10 to display the processed image (step S9).
For example, FIG. 8 shows examples of the physical space RS and the processed image PI displayed on the display 15 of the user terminal 10 when the physical space RS is captured. As in the example shown in FIG. 8, by capturing an image of the physical space, the user can see a processed image in which the article in the physical space is virtually replaced with the user-selected product. As a result, the user can intuitively know the atmosphere, size, etc., when the article in the physical space is replaced with the user-selected article.

なお、カメラ16が動画モードで撮像を行っている場合、画像取得部231は、フレーム画像としての元画像を所定周期で取得する。すなわち、ステップS9の後、所定の停止条件を満たしていない場合(ステップS10;No)、画像取得部231は、次の元画像を取得し(ステップS11)、ステップS8に戻る。ここで、標的オブジェクト検出部233は、初回フローで特定した標的オブジェクトを追跡する処理を行っており、2回目のフロー以降では、標的オブジェクト検出部233により追跡された標的オブジェクトが利用される。
なお、ユーザが停止操作を行う等、所定の停止条件を満たした場合(ステップS10;Yes)、当該フローは終了する。
Note that when the camera 16 is capturing images in the moving image mode, the image acquisition unit 231 acquires original images as frame images at predetermined intervals. That is, after step S9, if the predetermined stop condition is not satisfied (step S10; No), the image acquisition unit 231 acquires the next original image (step S11), and returns to step S8. Here, the target object detection unit 233 performs processing for tracking the target object specified in the first flow, and the target object tracked by the target object detection unit 233 is used in the second flow and subsequent flows.
Note that when a predetermined stop condition is satisfied, such as when the user performs a stop operation (step S10; Yes), the flow ends.

[第1実施形態の作用効果]
本実施形態のサーバ装置20は、制御部23が画像処理プログラムを読み出し実行することで、画像取得部231、仮想オブジェクト取得部232、標的オブジェクト検出部233、および、画像加工部234として機能する。そして、仮想オブジェクト取得部232は、ユーザ選択商品の情報に基づいて、ユーザ選択商品の仮想オブジェクトを取得し、画像取得部231は、カメラ16によって撮像された元画像を取得する。標的オブジェクト検出部233は、ユーザ選択商品の情報に基づいて元画像から標的オブジェクトを検出する。画像加工部234は、元画像内の標的オブジェクトを仮想オブジェクトに置き換えた加工画像を生成する。
このような本実施形態において、サーバ装置20は、元画像を取得することにより、元画像内の適切な現実オブジェクトをユーザ選択商品の仮想オブジェクトに自動的に置き換えることができる。これにより、ユーザは、現実空間内の物品を移動させたり、減損現実の度合いを設定したりといった手間をかけずに、元画像内の物品を容易に置き換えることができる。
[Action and effect of the first embodiment]
The server device 20 of the present embodiment functions as an image acquisition unit 231, a virtual object acquisition unit 232, a target object detection unit 233, and an image processing unit 234 by the control unit 23 reading and executing an image processing program. The virtual object acquisition unit 232 acquires the virtual object of the user-selected product based on the information on the user-selected product, and the image acquisition unit 231 acquires the original image captured by the camera 16 . The target object detection unit 233 detects the target object from the original image based on the information on the user-selected product. The image processing unit 234 generates a processed image by replacing the target object in the original image with a virtual object.
In this embodiment, by acquiring the original image, the server device 20 can automatically replace an appropriate physical object in the original image with the virtual object of the user-selected product. As a result, the user can easily replace the article in the original image without having to move the article in the physical space or set the degree of depletion reality.

本実施形態では、標的オブジェクト検出部233は、元画像に存在する現実オブジェクトのうち、ユーザ選択商品に対する類似度が閾値以上になる現実オブジェクトを、標的オブジェクトとして検出する。
このような構成では、元画像が複数の種類の現実オブジェクトを含んでいる場合であっても、ユーザ選択商品に関する現実オブジェクトを標的オブジェクトとして容易に検出できる。
In this embodiment, the target object detection unit 233 detects, as the target object, a physical object whose similarity to the user-selected product is equal to or greater than a threshold among the physical objects present in the original image.
With such a configuration, even if the original image contains multiple types of physical objects, the physical object related to the user-selected product can be easily detected as the target object.

本実施形態において、標的オブジェクト検出部233は、現実オブジェクトと仮想オブジェクトとの間の類似度が閾値よりも小さい場合、閾値を減少させる。
このような構成によれば、元画像内の現実オブジェクトがユーザ選択商品とは大きく異なるものであっても、標的オブジェクトとして検出することができる。
In this embodiment, the target object detection unit 233 decreases the threshold when the degree of similarity between the physical object and the virtual object is smaller than the threshold.
According to such a configuration, even if the real object in the original image is greatly different from the product selected by the user, it can be detected as the target object.

本実施形態において、画像加工部234は、標的オブジェクトまたは標的オブジェクトの周囲に配置された現実オブジェクトの配置方向に基づいて、加工画像における仮想オブジェクトの配置方向を設定する。
このような構成では、ユーザの手間を必要とせずに、仮想オブジェクトを自然な見た目で配置することができる。
In this embodiment, the image processing unit 234 sets the placement direction of the virtual object in the processed image based on the placement direction of the target object or the physical objects placed around the target object.
With such a configuration, the virtual objects can be arranged with a natural look without the user's trouble.

[第2実施形態]
次に、第2実施形態について説明する。
上述した第1実施形態では、標的オブジェクト検出部233が、元画像からユーザ選択商品に関する標的オブジェクトを検出している。すなわち、第1実施形態では、ユーザが事前に商品を選択している必要がある。これに対して、第2実施形態では、標的オブジェクト検出部233が、元画像の所定領域に配置された現実オブジェクトを標的オブジェクトとして検出するものであり、ユーザが事前に商品を選択する必要がない点で第1実施形態と相違する。
[Second embodiment]
Next, a second embodiment will be described.
In the first embodiment described above, the target object detection unit 233 detects the target object related to the user-selected product from the original image. That is, in the first embodiment, it is necessary for the user to select the product in advance. On the other hand, in the second embodiment, the target object detection unit 233 detects a real object arranged in a predetermined area of the original image as the target object, and the user does not need to select the product in advance. It is different from the first embodiment in that point.

以下、第2実施形態のサーバ装置20における画像処理方法について説明する。サーバ装置20は、ユーザ端末10から受信する操作情報に基づいて、画像処理プログラムを実行し、以下に説明する画像処理を実施する。 An image processing method in the server device 20 of the second embodiment will be described below. The server device 20 executes the image processing program based on the operation information received from the user terminal 10, and performs the image processing described below.

図9は、第2実施形態のサーバ装置20における画像処理を示すフローチャートである。なお、図9では、第1実施形態と同様の処理には同様の符号を付している。
まず、画像取得部231が、ユーザ端末10に対してカメラ起動要求を送信する。当該要求を受信したユーザ端末10は、第1実施形態と同様、カメラ16に撮像された元画像をサーバ装置20に送信する。これにより、画像取得部231は、ユーザ端末10から送信された元画像を取得する(ステップS2)。
FIG. 9 is a flow chart showing image processing in the server device 20 of the second embodiment. In addition, in FIG. 9, the same code|symbol is attached|subjected to the same process as 1st Embodiment.
First, the image acquisition unit 231 transmits a camera activation request to the user terminal 10 . Upon receiving the request, the user terminal 10 transmits the original image captured by the camera 16 to the server device 20, as in the first embodiment. Thereby, the image acquiring unit 231 acquires the original image transmitted from the user terminal 10 (step S2).

次に、標的オブジェクト検出部233が、取得された元画像のうち所定領域に配置された現実オブジェクトを、標的オブジェクトとして検出する(ステップS21)。ここで、所定領域は、元画像内に任意に設定可能であり、例えば元画像内の中央領域であってもよいし、元画像においてカメラ16が合焦している領域であってもよい。 Next, the target object detection unit 233 detects, as a target object, a physical object arranged in a predetermined area in the acquired original image (step S21). Here, the predetermined area can be arbitrarily set within the original image, and may be, for example, the central area within the original image, or the area where the camera 16 is focused in the original image.

次に、仮想オブジェクト取得部232が、標的オブジェクトに関する物品の仮想オブジェクトを取得する(ステップS22)。
例えば、仮想オブジェクト取得部232は、標的オブジェクトを分析し、当該標的オブジェクトが、商品データベース222に登録されている商品のうち、いずれの商品に該当するかを推定する。そして、標的オブジェクトに該当すると推定された商品(推定商品)に基づいて、当該推定商品と同じカテゴリに属する商品の仮想オブジェクトを取得してもよい。
あるいは、仮想オブジェクト取得部232は、標的オブジェクトの特徴量を算出し、当該標的オブジェクトの間の類似度が閾値以上となる仮想オブジェクトを取得してもよい。
なお、説明の簡略化のために、ここでは、いずれか1つの仮想オブジェクトが取得されるものとし、以降の処理は、第1実施形態と同様である。
Next, the virtual object acquisition unit 232 acquires the virtual object of the article related to the target object (step S22).
For example, the virtual object acquisition unit 232 analyzes the target object and estimates which of the products registered in the product database 222 corresponds to the target object. Then, based on the product estimated to correspond to the target object (estimated product), the virtual object of the product belonging to the same category as the estimated product may be acquired.
Alternatively, the virtual object acquisition unit 232 may calculate the feature amount of the target object and acquire virtual objects whose similarity between the target objects is equal to or greater than a threshold.
To simplify the explanation, it is assumed here that any one virtual object is acquired, and the subsequent processing is the same as in the first embodiment.

以上の処理によれば、ユーザは、現実空間を撮像することにより、現実空間の所定領域に配置された物品が当該物品に関連する商品に仮想的に置き換わった加工画像を見ることができる。 According to the above processing, the user can view a processed image in which an article placed in a predetermined area of the physical space is virtually replaced with a product related to the article by capturing an image of the physical space.

[第2実施形態の作用効果]
第2実施形態では、標的オブジェクト検出部233は、元画像から所定領域に配置された標的オブジェクトを検出する。
このような第2実施形態において、サーバ装置20は、元画像を取得することにより、元画像内の所定領域に配置された物品を、任意の商品の仮想オブジェクトに自動的に置き換える。これにより、ユーザは、現実空間内の物品を移動させたり、減損現実の度合いを設定したりといった手間をかけずに、画像内の物品を容易に置き換えることができる。
[Action and effect of the second embodiment]
In the second embodiment, the target object detection unit 233 detects a target object arranged in a predetermined area from the original image.
In the second embodiment as described above, the server device 20 automatically replaces an article arranged in a predetermined area in the original image with a virtual object of an arbitrary article by acquiring the original image. This allows the user to easily replace the article in the image without moving the article in the physical space or setting the degree of depletion reality.

また、第2実施形態では、仮想オブジェクト取得部232は、標的オブジェクトに基づいて、物品の仮想オブジェクトを取得するため、ユーザが事前に商品を選択する必要がない。このため、新調したい物品が存在するが、購入する商品が決まっていない場合などに、購入候補となり得る商品の提案をサーバ装置20から受けることができる。 Also, in the second embodiment, the virtual object acquisition unit 232 acquires the virtual object of the product based on the target object, so the user does not need to select the product in advance. Therefore, when there is an article that the customer wants to purchase, but the article to be purchased has not been decided yet, the server device 20 can propose a candidate article for purchase.

[変形例]
本発明は、上述した各実施形態に限定されるものではなく、本発明の目的を達成できる範囲で、以下に示される変形をも含むものである。
[Modification]
The present invention is not limited to the above-described embodiments, and includes modifications shown below as long as the object of the present invention can be achieved.

(変形例1)
上記各実施形態では、説明の簡略化のために、仮想オブジェクト取得部232が1つの仮想オブジェクトを取得する場合について説明しているが、本発明はこれに限られない。すなわち、複数の仮想オブジェクトを取得する場合でも、上述の説明を適用できる。
(Modification 1)
In each of the embodiments described above, the case where the virtual object acquisition unit 232 acquires one virtual object has been described for the sake of simplification of description, but the present invention is not limited to this. That is, the above description can be applied even when acquiring a plurality of virtual objects.

例えば、第1実施形態において、仮想オブジェクト取得部232は、ある現実オブジェクトが複数の仮想オブジェクトとの間で閾値以上の類似度を有する場合、当該現実オブジェクトと複数の仮想オブジェクトとを対応付けると共に、当該現実オブジェクトを標的オブジェクトとして検出する。そして、標的オブジェクトを、当該標的オブジェクトに対応付けられているいずれかの仮想オブジェクトに置き換え、所定時間毎に、配置する仮想オブジェクトを切り替えてもよい。
また、複数の仮想オブジェクトに対応づけられる標的オブジェクトが複数存在する場合には、配置する仮想オブジェクトの組み合わせを作成し、当該組み合わせを所定時間毎に異なる組み合わせに切り替えてもよい。
For example, in the first embodiment, when a certain physical object has a degree of similarity equal to or greater than a threshold value with a plurality of virtual objects, the virtual object acquiring unit 232 associates the physical object with the plurality of virtual objects, A real object is detected as a target object. Then, the target object may be replaced with any virtual object associated with the target object, and the virtual object to be placed may be switched at predetermined time intervals.
Further, when there are a plurality of target objects associated with a plurality of virtual objects, a combination of virtual objects to be arranged may be created, and the combination may be switched to a different combination every predetermined time.

また、第2実施形態では、仮想オブジェクト取得部232が取得する仮想オブジェクトの取得数が、予め任意の数に設定されていてもよい。そして、複数の仮想オブジェクトが取得された場合には、一定周期毎に、標的オブジェクトと置き換える仮想オブジェクトを切り替えてもよい。
このような変形例は、特に画像処理システム1が電子商取引システムの一部を構成している場合などに有用である。例えば、ユーザの手間を必要とせずに、元画像内の物品を複数の仮想オブジェクトを順次置き換えることができるため、ユーザは複数の商品を容易に比較検討することができる。
Further, in the second embodiment, the number of acquisitions of virtual objects acquired by the virtual object acquisition unit 232 may be set to an arbitrary number in advance. Then, when a plurality of virtual objects are acquired, the virtual object to be replaced with the target object may be switched at regular intervals.
Such a modified example is particularly useful when the image processing system 1 forms part of an electronic commerce system. For example, since a plurality of virtual objects can be sequentially substituted for a product in the original image without requiring the user's trouble, the user can easily compare and consider a plurality of products.

(変形例2)
上記第1実施形態では、仮想オブジェクトに対する類似度が閾値以上になる現実オブジェクトを、標的オブジェクトとして検出しているが、本発明はこれに限られない。
例えば、標的オブジェクト検出部233は、取得した現実オブジェクトを解析し、当該現実オブジェクトが対応するカテゴリを判定してもよい。そして、標的オブジェクト検出部233は、仮想オブジェクトと同じカテゴリに属する現実オブジェクトを、標的オブジェクトとして検出してもよい。
また、標的オブジェクト検出部233は、機械学習などの他の任意の方法を利用して、標的オブジェクトを検出することができる。
(Modification 2)
In the first embodiment described above, a physical object whose degree of similarity to a virtual object is equal to or greater than a threshold is detected as a target object, but the present invention is not limited to this.
For example, the target object detection unit 233 may analyze the obtained physical object and determine the category to which the physical object corresponds. Then, the target object detection unit 233 may detect a real object belonging to the same category as the virtual object as the target object.
The target object detector 233 can also use any other method such as machine learning to detect the target object.

(変形例3)
上記第1実施形態において、仮想オブジェクト取得部232は、ユーザデータベース221の履歴情報に記憶された商品(ユーザ選択商品)の情報に基づいて、ユーザ選択商品の仮想オブジェクトを取得しているが、本発明はこれに限定されない。例えば、ユーザデータベース221のリコメンド情報に記憶された商品の情報に基づいて、当該商品の仮想オブジェクトを取得してもよい。
(Modification 3)
In the first embodiment, the virtual object acquisition unit 232 acquires the virtual object of the user-selected product based on the information of the product (user-selected product) stored in the history information of the user database 221. The invention is not so limited. For example, based on product information stored in the recommendation information of the user database 221, the virtual object of the product may be acquired.

(変形例4)
上記第2実施形態では、ステップS22において、仮想オブジェクト取得部232が、標的オブジェクトに基づいて仮想オブジェクトを取得するが、ユーザ情報に含まれた商品情報に基づいて仮想オブジェクトを取得してもよい。
ここで、ユーザ情報に含まれた商品情報とは、例えば履歴情報(閲覧履歴、ブックマーク情報、カート情報および購入履歴など)またはリコメンド情報に登録された商品情報である。
このような変形例によれば、上記第2実施形態と同様、購入候補となり得る商品の提案をサーバ装置20から受けることができる。また、このような変形例では、標的オブジェクトのカテゴリにとらわれず、様々なカテゴリの物品の提案を受けることができる。
(Modification 4)
In the second embodiment, in step S22, the virtual object acquisition unit 232 acquires the virtual object based on the target object, but may acquire the virtual object based on the product information included in the user information.
Here, the product information included in the user information is, for example, product information registered in history information (browsing history, bookmark information, cart information, purchase history, etc.) or recommendation information.
According to such a modification, as in the second embodiment, it is possible to receive from the server device 20 a proposal for a product that can be a candidate for purchase. Also, in such a modified example, it is possible to receive proposals for articles of various categories without being bound by the category of the target object.

(変形例5)
上記各実施形態では、サーバ装置20が、上述の画像処理を行う構成を例示したが、ユーザ端末10が上述の画像処理を行ってもよい。すなわち、本発明の画像処理プログラムをインストールされたユーザ端末10において、端末制御部14が、当該画像処理プログラムを読み出し実行することで、本発明の画像取得部、仮想オブジェクト取得部、標的オブジェクト検出部および画像加工部として機能してもよい。
また、サーバ装置20における処理の一部をユーザ端末10が行ってもよい。例えば、サーバ装置20は、マスク画像および仮想オブジェクトをユーザ端末10に送信し、ユーザ端末10は、受信したマスク画像および仮想オブジェクトを元画像に重畳させてもよい。すなわち、本発明の画像処理装置は、通信可能な複数のコンピュータからなるシステムとして構成されてもよい。
(Modification 5)
In each of the above-described embodiments, the server apparatus 20 exemplifies the configuration for performing the above image processing, but the user terminal 10 may perform the above image processing. That is, in the user terminal 10 in which the image processing program of the present invention is installed, the terminal control unit 14 reads out and executes the image processing program, so that the image acquisition unit, the virtual object acquisition unit, and the target object detection unit of the present invention and may function as an image processing unit.
Also, the user terminal 10 may perform part of the processing in the server device 20 . For example, the server device 20 may transmit the mask image and the virtual object to the user terminal 10, and the user terminal 10 may superimpose the received mask image and virtual object on the original image. That is, the image processing apparatus of the present invention may be configured as a system composed of a plurality of communicable computers.

(変形例6)
本発明の物品は、家具であることに限られない。すなわち、本発明は、例えば被服、装身具、家電または建物設備など、交換や新調を検討することが想定される様々な物品に適用できる。
(Modification 6)
Articles of the present invention are not limited to furniture. That is, the present invention can be applied to various articles such as clothing, accessories, home appliances, or building equipment, which are expected to be replaced or renewed.

(変形例7)
上記各実施形態では、画像処理システム1が、電子商取引システムの一部であるとして説明しているが、本発明はこれに限られない。すなわち、本発明の画像処理システム1は、単独システムであってもよいし、他のシステムに組み合わされてもよい。また、本発明の物品は、商品の形態であることに限定されず、非売品や譲渡品であってもよい。
(Modification 7)
Although the image processing system 1 is part of the electronic commerce system in each of the above embodiments, the present invention is not limited to this. That is, the image processing system 1 of the present invention may be a stand-alone system or may be combined with another system. Also, the article of the present invention is not limited to being in the form of a product, and may be an article not for sale or a transferable article.

その他、本発明の実施の際の具体的な構造および手順は、本発明の目的を達成できる範囲で他の構造などに適宜変更できる。 In addition, the specific structure and procedure for carrying out the present invention can be appropriately changed to another structure within the scope of achieving the object of the present invention.

1…画像処理システム、10…ユーザ端末、11…端末通信部、12…入力操作部、13…端末記憶部、14…端末制御部、15…ディスプレイ、16…カメラ、20…サーバ装置、21…通信部、22…記憶部、221…ユーザデータベース、222…商品データベース、223…仮想オブジェクトデータベース、224…画像加工データベース、23…制御部、231…画像取得部、232…仮想オブジェクト取得部、233…標的オブジェクト検出部、234…画像加工部。 DESCRIPTION OF SYMBOLS 1... Image processing system 10... User terminal 11... Terminal communication part 12... Input operation part 13... Terminal storage part 14... Terminal control part 15... Display 16... Camera 20... Server device 21... Communication unit 22 Storage unit 221 User database 222 Product database 223 Virtual object database 224 Image processing database 23 Control unit 231 Image acquisition unit 232 Virtual object acquisition unit 233 target object detection section, 234... image processing section;

Claims (10)

ユーザ情報に含まれた物品の情報に基づいて、当該物品の仮想オブジェクトを取得する仮想オブジェクト取得部と、
撮像装置によって撮像された元画像を取得する画像取得部と、
前記物品の情報に基づいて前記元画像から標的オブジェクトを検出する標的オブジェクト検出部と、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部と、を備え
前記仮想オブジェクト取得部が複数の前記仮想オブジェクトを取得している場合、前記画像加工部は、前記標的オブジェクトと置き換える前記仮想オブジェクトを所定時間毎に切り替えることを特徴とする画像処理装置。
a virtual object acquisition unit that acquires a virtual object of the article based on the article information included in the user information;
an image acquisition unit that acquires an original image captured by an imaging device;
a target object detection unit that detects a target object from the original image based on the information of the article;
an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object ;
The image processing apparatus , wherein when the virtual object acquisition unit acquires a plurality of the virtual objects, the image processing unit switches the virtual object to be replaced with the target object at predetermined time intervals .
請求項1に記載の画像処理装置であって、
前記標的オブジェクト検出部は、
前記元画像に存在する現実オブジェクトのうち、前記物品に対する類似度が閾値以上になる前記現実オブジェクトを、前記標的オブジェクトとして検出することを特徴とする画像処理装置。
The image processing device according to claim 1,
The target object detection unit includes:
An image processing apparatus that detects, as the target object, a physical object having a degree of similarity to the product equal to or greater than a threshold among physical objects present in the original image.
請求項2に記載の画像処理装置であって、
前記標的オブジェクト検出部は、前記現実オブジェクトと前記仮想オブジェクトとの間の前記類似度が前記閾値よりも小さい場合、当該閾値を減少させることを特徴とする画像処理装置。
The image processing device according to claim 2,
The image processing apparatus, wherein the target object detection unit reduces the threshold when the degree of similarity between the physical object and the virtual object is smaller than the threshold.
ユーザが利用する撮像装置によって撮像された元画像を取得する画像取得部と、
前記元画像から当該元画像に設定された所定領域に配置された標的オブジェクトを検出する標的オブジェクト検出部と、
物品の仮想オブジェクトを取得する仮想オブジェクト取得部と、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部と、を備え
前記仮想オブジェクト取得部が複数の前記仮想オブジェクトを取得している場合、前記画像加工部は、前記標的オブジェクトと置き換える前記仮想オブジェクトを所定時間毎に切り替えることを特徴とする画像処理装置。
an image acquisition unit that acquires an original image captured by an imaging device used by a user;
a target object detection unit that detects a target object arranged in a predetermined area set in the original image from the original image;
a virtual object acquisition unit that acquires a virtual object of an article;
an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object ;
The image processing apparatus , wherein when the virtual object acquisition unit acquires a plurality of the virtual objects, the image processing unit switches the virtual object to be replaced with the target object at predetermined time intervals .
請求項4に記載の画像処理装置であって、
前記仮想オブジェクト取得部は、前記標的オブジェクトに基づいて、または、前記ユーザのユーザ情報に含まれた前記物品の情報に基づいて、前記物品の前記仮想オブジェクト
を取得することを特徴とする画像処理装置。
The image processing device according to claim 4,
The image processing apparatus, wherein the virtual object acquisition unit acquires the virtual object of the article based on the target object or information of the article included in user information of the user. .
請求項1から請求項5のいずれか一項に記載の画像処理装置であって、
前記画像加工部は、前記標的オブジェクトの配置方向に基づいて、前記加工画像における前記仮想オブジェクトの配置方向を設定することを特徴とする画像処理装置。
The image processing device according to any one of claims 1 to 5,
The image processing device, wherein the image processing unit sets the arrangement direction of the virtual object in the processed image based on the arrangement direction of the target object.
コンピュータにより画像処理を実施させる画像処理方法であって、
ユーザ情報に含まれた物品の情報に基づいて、当該物品の仮想オブジェクトを取得する仮想オブジェクト取得ステップと、
撮像装置によって撮像された元画像を取得する画像取得ステップと、
前記物品の情報に基づいて前記元画像から標的オブジェクトを検出する標的オブジェクト検出ステップと、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工ステップと、を含み、
前記仮想オブジェクト取得ステップにおいて、複数の前記仮想オブジェクトが取得された場合、前記画像加工ステップは、前記標的オブジェクトと置き換える前記仮想オブジェクトを所定時間毎に切り替えることを特徴とする画像処理方法。
An image processing method for performing image processing by a computer,
a virtual object acquisition step of acquiring a virtual object of the article based on the information of the article included in the user information;
an image acquisition step of acquiring an original image captured by the imaging device;
a target object detection step of detecting a target object from the original image based on the information of the article;
an image processing step of generating a processed image in which the target object in the original image is replaced with the virtual object ;
The image processing method, wherein in the virtual object acquiring step, when a plurality of the virtual objects are acquired, the image processing step switches the virtual object to be replaced with the target object at predetermined time intervals .
コンピュータにより画像処理を実施させる画像処理方法であって、
ユーザが利用する撮像装置によって撮像された元画像を取得する画像取得ステップと、
前記元画像から当該元画像に設定された所定領域に配置された標的オブジェクトを検出する標的オブジェクト検出ステップと、
物品の仮想オブジェクトを取得する仮想オブジェクト取得ステップと、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工ステップと、を含み、
前記仮想オブジェクト取得ステップにおいて、複数の前記仮想オブジェクトが取得された場合、前記画像加工ステップは、前記標的オブジェクトと置き換える前記仮想オブジェクトを所定時間毎に切り替えることを特徴とする画像処理方法。
An image processing method for performing image processing by a computer,
an image acquisition step of acquiring an original image captured by an imaging device used by a user;
a target object detection step of detecting a target object arranged in a predetermined area set in the original image from the original image;
a virtual object obtaining step of obtaining a virtual object of an article;
an image processing step of generating a processed image in which the target object in the original image is replaced with the virtual object ;
The image processing method, wherein in the virtual object acquiring step, when a plurality of the virtual objects are acquired, the image processing step switches the virtual object to be replaced with the target object at predetermined time intervals .
コンピュータに読み込まれて実行される画像処理プログラムであって、
前記コンピュータを、
ユーザ情報に含まれた物品の情報に基づいて、当該物品の仮想オブジェクトを取得する仮想オブジェクト取得部、
撮像装置によって撮像された元画像を取得する画像取得部、
前記物品の情報に基づいて前記元画像から標的オブジェクトを検出する標的オブジェクト検出部、および、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部として、機能させ
前記仮想オブジェクト取得部が複数の前記仮想オブジェクトを取得している場合、前記画像加工部は、前記標的オブジェクトと置き換える前記仮想オブジェクトを所定時間毎に切り替えることを特徴とする画像処理プログラム。
An image processing program that is read and executed by a computer,
said computer,
a virtual object acquisition unit that acquires a virtual object of an article based on the article information included in the user information;
an image acquisition unit that acquires an original image captured by an imaging device;
a target object detection unit that detects a target object from the original image based on the information of the article; and
function as an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object ;
The image processing program , wherein when the virtual object acquisition unit acquires a plurality of the virtual objects, the image processing unit switches the virtual object to be replaced with the target object at predetermined time intervals .
コンピュータに読み込まれて実行される画像処理プログラムであって、
前記コンピュータを、
ユーザが利用する撮像装置によって撮像された元画像を取得する画像取得部、
前記元画像から当該元画像に設定された所定領域に配置された標的オブジェクトを検出する標的オブジェクト検出部、
物品の仮想オブジェクトを取得する仮想オブジェクト取得部、および、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部として、機能させ
前記仮想オブジェクト取得部が複数の前記仮想オブジェクトを取得している場合、前記画像加工部は、前記標的オブジェクトと置き換える前記仮想オブジェクトを所定時間毎に切り替えることを特徴とする画像処理プログラム。
An image processing program that is read and executed by a computer,
said computer,
an image acquisition unit that acquires an original image captured by an imaging device used by a user;
a target object detection unit that detects a target object arranged in a predetermined area set in the original image from the original image;
a virtual object acquisition unit that acquires a virtual object of an article; and
function as an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object ;
The image processing program , wherein when the virtual object acquisition unit acquires a plurality of the virtual objects, the image processing unit switches the virtual object to be replaced with the target object at predetermined time intervals .
JP2018235649A 2018-12-17 2018-12-17 Image processing device, image processing method and image processing program Active JP7139236B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018235649A JP7139236B2 (en) 2018-12-17 2018-12-17 Image processing device, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018235649A JP7139236B2 (en) 2018-12-17 2018-12-17 Image processing device, image processing method and image processing program

Publications (2)

Publication Number Publication Date
JP2020098409A JP2020098409A (en) 2020-06-25
JP7139236B2 true JP7139236B2 (en) 2022-09-20

Family

ID=71105998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235649A Active JP7139236B2 (en) 2018-12-17 2018-12-17 Image processing device, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP7139236B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7354186B2 (en) * 2021-06-18 2023-10-02 ヤフー株式会社 Display control device, display control method, and display control program
WO2023171355A1 (en) * 2022-03-07 2023-09-14 ソニーセミコンダクタソリューションズ株式会社 Imaging system, video processing method, and program
CN114758027A (en) * 2022-04-12 2022-07-15 北京字跳网络技术有限公司 Image processing method, image processing device, electronic equipment and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122321A (en) 2005-10-27 2007-05-17 Seiko Epson Corp Identification of subject represented in image
JP2011095797A (en) 2009-10-27 2011-05-12 Sony Corp Image processing device, image processing method and program
JP2013500771A (en) 2009-07-29 2013-01-10 マイクロソフト コーポレーション Method and system for automatically generating visual display
JP2016071682A (en) 2014-09-30 2016-05-09 大日本印刷株式会社 Object arrangement device, object arrangement method, and program
JP2017054516A (en) 2007-09-25 2017-03-16 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH Method and device for illustrating virtual object in real environment

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012253483A (en) * 2011-06-01 2012-12-20 Sony Corp Image processing apparatus, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122321A (en) 2005-10-27 2007-05-17 Seiko Epson Corp Identification of subject represented in image
JP2017054516A (en) 2007-09-25 2017-03-16 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH Method and device for illustrating virtual object in real environment
JP2013500771A (en) 2009-07-29 2013-01-10 マイクロソフト コーポレーション Method and system for automatically generating visual display
JP2011095797A (en) 2009-10-27 2011-05-12 Sony Corp Image processing device, image processing method and program
JP2016071682A (en) 2014-09-30 2016-05-09 大日本印刷株式会社 Object arrangement device, object arrangement method, and program

Also Published As

Publication number Publication date
JP2020098409A (en) 2020-06-25

Similar Documents

Publication Publication Date Title
US10026229B1 (en) Auxiliary device as augmented reality platform
JP7139236B2 (en) Image processing device, image processing method and image processing program
US10733651B2 (en) Methods and systems for identifying physical objects
CN110033293B (en) Method, device and system for acquiring user information
EP3221817B1 (en) Screenshot based indication of supplemental information
CN106598998B (en) Information acquisition method and information acquisition device
CN106127552B (en) Virtual scene display method, device and system
EP3188034A1 (en) Display terminal-based data processing method
CN104991906B (en) Information acquisition method, server, terminal, database construction method and device
US20150215674A1 (en) Interactive streaming video
JP2013168132A (en) Commodity retrieval device, method and program
JP2020502662A (en) Intelligent automatic cropping of images
JP2016514865A (en) Real-world analysis visualization
JP6185216B1 (en) Information providing system, information providing apparatus, information providing method, and program
GB2591583A (en) Machine learning for digital image selection across object variations
US11392996B2 (en) Systems and methods for creating a navigable path between pages of a network platform based on linking database entries of the network platform
JP2015079433A5 (en)
US20130002822A1 (en) Product ordering system, program and method
JP2020119156A (en) Avatar creating system, avatar creating device, server device, avatar creating method and program
US9672436B1 (en) Interfaces for item search
EP4318272A1 (en) Systems and methods for product visualization using a single-page application
US11941763B2 (en) Viewing system, model creation apparatus, and control method
KR20220100608A (en) Enable and disable mobile application camera based on physical object position
WO2015107424A1 (en) System and method for product placement
CN107077696B (en) Man-machine matching device, matching system, man-machine matching method, and man-machine matching program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220725

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220803

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220907

R150 Certificate of patent or registration of utility model

Ref document number: 7139236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350