JP2020098409A - Image processing apparatus, image processing method, and image processing program - Google Patents

Image processing apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2020098409A
JP2020098409A JP2018235649A JP2018235649A JP2020098409A JP 2020098409 A JP2020098409 A JP 2020098409A JP 2018235649 A JP2018235649 A JP 2018235649A JP 2018235649 A JP2018235649 A JP 2018235649A JP 2020098409 A JP2020098409 A JP 2020098409A
Authority
JP
Japan
Prior art keywords
image
image processing
target object
virtual object
article
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018235649A
Other languages
Japanese (ja)
Other versions
JP7139236B2 (en
Inventor
高志 小國
Takashi Kokuni
高志 小國
悠吾 松田
Yugo Matsuda
悠吾 松田
真一郎 山下
Shinichiro Yamashita
真一郎 山下
亮介 平松
Ryosuke Hiramatsu
亮介 平松
敬隆 新堂
Yoshitaka Shindo
敬隆 新堂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018235649A priority Critical patent/JP7139236B2/en
Publication of JP2020098409A publication Critical patent/JP2020098409A/en
Application granted granted Critical
Publication of JP7139236B2 publication Critical patent/JP7139236B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

To provide an image processing apparatus, an image processing method, and an image processing program capable of easily replacing an article in an image.SOLUTION: A server device 20 includes: a virtual object acquisition unit 232 that acquires a virtual object of an article based on article information included in user information; an image acquisition unit 231 that acquires an original image captured by an imaging device; a target object detection unit 233 that detects a target object from the original image based on the article; and an image processing unit 234 that generates a processed image obtained by replacing the target object in the original image with the virtual object.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing method, and an image processing program.

従来、ユーザに直観的な情報提示を行うために、現実空間の画像または映像をコンピュータで処理して仮想情報を重畳するAR(拡張現実)技術が存在する。例えば、近年では、ユーザが撮影した映像内に家具などの商品を仮想的に設置するアプリが存在する。このようなアプリを使用したユーザは、購入前の商品を実際の部屋に設置したときの雰囲気やサイズ感を手軽に知ることができる。 Conventionally, there is an AR (augmented reality) technique for superimposing virtual information by processing an image or video in a physical space with a computer in order to present information intuitively to a user. For example, in recent years, there is an application that virtually installs a product such as furniture in an image captured by a user. A user who uses such an application can easily know the atmosphere and size feeling when a product before purchase is installed in an actual room.

しかし、上述のアプリでは、既存の家具が設置されている場所に新たな家具のAR画像を配置したい場合、既存の家具を別の場所へ移動させる等の手間が発生する。これに対して、特許文献1には、現実空間の元画像から「モノ」を消去するDR(減損現実)技術を利用する方法が開示されている。具体的には、特許文献1では、元画像から家具を除去し、除去後の画像に基づいた3Dモデルに対して、新たな家具の画像を配置する。これにより、既存の家具が新たな家具に仮想的に置き換えられた3Dモデルが生成される。 However, in the above-mentioned application, when it is desired to arrange an AR image of new furniture in a place where existing furniture is installed, it takes time and effort to move the existing furniture to another place. On the other hand, Patent Document 1 discloses a method of using a DR (impairment reality) technique for erasing "things" from an original image in a physical space. Specifically, in Patent Document 1, furniture is removed from the original image, and a new furniture image is arranged on the 3D model based on the removed image. Thereby, the 3D model in which the existing furniture is virtually replaced with the new furniture is generated.

特開2015−125774号公報JP, 2005-125774, A

しかし、特許文献1に開示の技術では、現実空間の元画像に対する減損現実の度合いをユーザの設定に基づいて調整している。このため、元画像から所望の家具のみを除去したい場合には、そのような減損現実の度合いをユーザが設定する必要がある。このため、ユーザによる設定が元画像毎に必要であり、ユーザの手間が大きくなる。 However, in the technique disclosed in Patent Document 1, the degree of the impaired reality of the original image in the physical space is adjusted based on the user's setting. Therefore, when it is desired to remove only the desired furniture from the original image, the user needs to set such a degree of impairment reality. For this reason, the setting by the user is required for each original image, and the user's labor is increased.

本発明は、画像内の物品の容易に置き換えることができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。 An object of the present invention is to provide an image processing device, an image processing method, and an image processing program that can easily replace an article in an image.

本発明の一態様に係る画像処理装置は、ユーザ情報に含まれた物品の情報に基づいて、当該物品の仮想オブジェクトを取得する仮想オブジェクト取得部と、撮像装置によって撮像された元画像を取得する画像取得部と、前記物品に基づいて前記元画像から標的オブジェクトを検出する標的オブジェクト検出部と、前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部と、を備えることを特徴とする。 An image processing apparatus according to one aspect of the present invention acquires a virtual object acquisition unit that acquires a virtual object of an article and an original image imaged by an imaging apparatus, based on the information of the article included in the user information. An image acquisition unit, a target object detection unit that detects a target object from the original image based on the article, an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object, It is characterized by including.

本発明の別の態様に係る画像処理装置は、ユーザが利用する撮像装置によって撮像された元画像を取得する画像取得部と、前記元画像から所定領域に配置された標的オブジェクトを検出する標的オブジェクト検出部と、物品の仮想オブジェクトを取得する仮想オブジェクト取得部と、前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部と、を備えることを特徴とする。 An image processing apparatus according to another aspect of the present invention includes an image acquisition unit that acquires an original image captured by an imaging apparatus used by a user, and a target object that detects a target object arranged in a predetermined region from the original image. It is characterized by comprising a detection unit, a virtual object acquisition unit that acquires a virtual object of an article, and an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object.

本発明の一態様に係る画像処理装置によれば、元画像内の適切な現実オブジェクトをユーザ所望の物品の仮想オブジェクトに自動的に置き換えることができる。これにより、ユーザは、現実空間内の物品を移動させたり、減損現実の度合いを設定したりといった手間をかけずに、画像内の物品を容易に置き換えることができる。
本発明の一態様に係る画像処理装置によれば、元画像内の所定領域に配置された物品を、任意の物品の仮想オブジェクトに自動的に置き換えることができる。これにより、ユーザは、上述と同様、画像内の物品を容易に置き換えることができる。
According to the image processing device of one aspect of the present invention, it is possible to automatically replace an appropriate real object in an original image with a virtual object of an article desired by a user. As a result, the user can easily replace the article in the image without the trouble of moving the article in the physical space or setting the degree of the impaired reality.
According to the image processing device of one aspect of the present invention, it is possible to automatically replace an article arranged in a predetermined area in an original image with a virtual object of an arbitrary article. As a result, the user can easily replace the item in the image, as described above.

第1実施形態の画像処理システムの概略構成を示すブロック図。The block diagram which shows the schematic structure of the image processing system of 1st Embodiment. 第1実施形態のサーバ装置の概略構成を示すブロック図。The block diagram which shows the schematic structure of the server apparatus of 1st Embodiment. 商品選択コンテンツのカート情報ページの一例を示す図。The figure which shows an example of the cart information page of product selection content. 商品選択コンテンツの商品情報ページの一例を示す図。The figure which shows an example of the product information page of product selection content. 第1実施形態のサーバ装置の画像処理方法の一例を示すフローチャート。3 is a flowchart showing an example of an image processing method of the server device according to the first embodiment. 第1実施形態において処理される画像の加工の流れを模式的に示す図。The figure which shows typically the flow of the process of the image processed in 1st Embodiment. 第1実施形態のサーバ装置の画像加工処理の一例を示すフローチャート。The flowchart which shows an example of the image processing process of the server apparatus of 1st Embodiment. 第1実施形態の現実空間および加工画像の一例を示す図。The figure which shows an example of the physical space and processed image of 1st Embodiment. 第2実施形態のサーバ装置の画像処理方法の一例を示すフローチャート。The flowchart which shows an example of the image processing method of the server apparatus of 2nd Embodiment.

[第1実施形態]
本発明の第1実施形態について図面に基づき説明する。
[画像処理システム1]
図1は、本実施形態の画像処理システム1の概略構成を示すブロック図である。
図1に示すように、本実施形態の画像処理システム1は、ユーザ端末10と、本発明の画像処理装置として機能するサーバ装置20と、を備えている。ユーザ端末10とサーバ装置20とは、ネットワーク(例えばインターネット)を介して通信可能に接続されている。
[First Embodiment]
A first embodiment of the present invention will be described with reference to the drawings.
[Image processing system 1]
FIG. 1 is a block diagram showing a schematic configuration of an image processing system 1 of this embodiment.
As shown in FIG. 1, the image processing system 1 of the present embodiment includes a user terminal 10 and a server device 20 that functions as an image processing device of the present invention. The user terminal 10 and the server device 20 are communicably connected via a network (for example, the Internet).

本実施形態の画像処理システム1は、例えば電子商取引システムの一部であり、サーバ装置20には、オンラインショップで販売される商品の情報が登録されている。この画像処理システム1において、サーバ装置20は、ユーザ端末10が現実空間を撮像した画像(元画像)に対してDR(減損現実)およびAR(拡張現実)に関する画像処理を施すことにより、現実空間内の物品を所望の商品に仮想的に置き換えた加工画像を生成する。ユーザは、ユーザ端末10に表示される加工画像を見ることにより、現実空間内の物品を所望の商品に置き換えたときの雰囲気やサイズ感などを直感的に知ることができる。
以下、このような画像処理システム1の具体的構成について詳細に説明する。
The image processing system 1 according to the present embodiment is, for example, a part of an electronic commerce system, and the server device 20 has registered therein information on products to be sold at online shops. In this image processing system 1, the server device 20 performs image processing on DR (impaired reality) and AR (augmented reality) on an image (original image) obtained by capturing the real space by the user terminal 10 to obtain a real space. A processed image is generated by virtually replacing the product in the item with a desired product. By looking at the processed image displayed on the user terminal 10, the user can intuitively know the mood and size feeling when the article in the physical space is replaced with the desired article.
Hereinafter, a specific configuration of the image processing system 1 will be described in detail.

[ユーザ端末]
ユーザ端末10は、例えばスマートフォンやタブレット型端末などのコンピュータであり、この種のコンピュータが有する基本的なハードウェアを有する。
具体的には、ユーザ端末10は、図1に示すように、端末通信部11、入力操作部12、端末記憶部13、端末制御部14、ディスプレイ15およびカメラ16を備えている。
[User terminal]
The user terminal 10 is, for example, a computer such as a smartphone or a tablet terminal, and has the basic hardware of this type of computer.
Specifically, as shown in FIG. 1, the user terminal 10 includes a terminal communication unit 11, an input operation unit 12, a terminal storage unit 13, a terminal control unit 14, a display 15, and a camera 16.

端末通信部11は、例えばLAN等を介してネットワークに接続されており、ネットワーク上の他の機器と通信する。
入力操作部12は、ユーザ操作による操作信号を端末制御部14に出力する。入力操作部12としては、例えば、ディスプレイ15と一体に設けられたタッチパネル等を例示できる。
The terminal communication unit 11 is connected to a network via, for example, a LAN and communicates with other devices on the network.
The input operation unit 12 outputs an operation signal by a user operation to the terminal control unit 14. As the input operation unit 12, for example, a touch panel provided integrally with the display 15 can be exemplified.

端末記憶部13は、例えばメモリやハードディスク等のデータ記録装置により構成されている。端末記憶部13には、ユーザ端末10を制御するための各種プログラム等が記憶される。また、端末記憶部13は、後述するサーバ装置20に処理させる元画像を一時的に記憶する。 The terminal storage unit 13 is composed of a data recording device such as a memory or a hard disk. The terminal storage unit 13 stores various programs for controlling the user terminal 10. Further, the terminal storage unit 13 temporarily stores an original image to be processed by the server device 20 described later.

端末制御部14は、CPU(Central Processing Unit)等の演算回路、RAM(Random Access Memory)等の記憶回路により構成され、ユーザ端末10の各部を制御する。端末制御部14は、端末記憶部13等に記憶されているプログラムの中から所定のアプリケーション等のプログラム(ソフトウェア)をRAMに展開し、RAMに展開されたプログラムとの協働で、各種処理を実行する。これにより、端末制御部14は、サーバ装置20に対してネットワークを介して通信可能になり、例えば、サーバ装置20が提供する各種サービスの利用や各種データの閲覧が可能となる。
また、端末制御部14は、ユーザの入力操作部12の操作により、例えばカメラ16により撮像された画像(元画像)を、サーバ装置20に送信する。
さらに、端末制御部14は、サーバ装置20によって画像処理された画像(加工画像)をディスプレイ15に表示(出力)させる。
The terminal control unit 14 includes an arithmetic circuit such as a CPU (Central Processing Unit) and a storage circuit such as a RAM (Random Access Memory), and controls each unit of the user terminal 10. The terminal control unit 14 develops a program (software) such as a predetermined application from the programs stored in the terminal storage unit 13 or the like in the RAM, and performs various processes in cooperation with the program loaded in the RAM. Execute. Accordingly, the terminal control unit 14 can communicate with the server device 20 via the network, and can use various services provided by the server device 20 and browse various data, for example.
In addition, the terminal control unit 14 transmits an image (original image) captured by, for example, the camera 16 to the server device 20 by the user operating the input operation unit 12.
Further, the terminal control unit 14 causes the display 15 to display (output) an image (processed image) subjected to image processing by the server device 20.

カメラ16は、本発明の撮像装置に相当し、レンズやイメージセンサなどにより構成される。カメラ16に撮像された画像は、一時的に端末記憶部13に記憶され、端末制御部14によってサーバ装置20に送信される。 The camera 16 corresponds to the image pickup apparatus of the present invention, and is composed of a lens, an image sensor and the like. The image captured by the camera 16 is temporarily stored in the terminal storage unit 13 and transmitted to the server device 20 by the terminal control unit 14.

[サーバ装置20の構成]
図2は、サーバ装置20の概略構成を示すブロック図である。
図2に示すように、サーバ装置20は、コンピュータにより構成され、通信部21と、記憶部22と、制御部23とを含んでいる。
通信部21は、ネットワークに接続されており、例えばLAN等を介してネットワークに接続されており、ネットワーク上の他の機器と通信する。
[Configuration of server device 20]
FIG. 2 is a block diagram showing a schematic configuration of the server device 20.
As shown in FIG. 2, the server device 20 is composed of a computer, and includes a communication unit 21, a storage unit 22, and a control unit 23.
The communication unit 21 is connected to the network, is connected to the network via, for example, a LAN, and communicates with other devices on the network.

記憶部22は、例えばメモリやハードディスク等のデータ記録装置により構成されている。
この記憶部22は、後述する画像処理を実施するための各種プログラムや各種データを記憶する。また、記憶部22は、ユーザデータベース221、商品データベース222、仮想オブジェクトデータベース223、および、画像加工データベース224を含んでいる。
The storage unit 22 is configured by a data recording device such as a memory or a hard disk.
The storage unit 22 stores various programs and various data for performing image processing described later. The storage unit 22 also includes a user database 221, a product database 222, a virtual object database 223, and an image processing database 224.

商品データベース222には、オンラインショップで販売される商品に関する商品情報が記録されている。この商品情報には、例えば、商品ID、商品名、カテゴリ情報等が含まれる。
ユーザデータベース221には、画像処理システム1を利用するユーザに関するユーザ情報が記憶されている。ユーザ情報は、ユーザ毎に管理されており、このユーザ情報には、例えばユーザID、ユーザ名、ユーザ属性、履歴情報およびリコメンド情報等が含まれる。履歴情報には、閲覧履歴、ブックマーク情報、カート情報および購入履歴などが含まれる。
仮想オブジェクトデータベース223には、商品データベース222に登録されている各商品(例えば商品ID)に対応付けられた仮想オブジェクトが記憶されている。仮想オブジェクトは、例えば商品の構造を三次元座標にて表現する3D画像データである。
画像加工データベース224には、画像処理を行うための画像処理情報が記憶されている。この画像処理情報には、例えば画像認識を行うための学習データなどが記憶されている。
The product database 222 stores product information about products sold in online shops. The product information includes, for example, a product ID, a product name, category information and the like.
The user database 221 stores user information about users who use the image processing system 1. User information is managed for each user, and this user information includes, for example, a user ID, a user name, a user attribute, history information, recommendation information, and the like. The history information includes browsing history, bookmark information, cart information, purchase history, and the like.
The virtual object database 223 stores virtual objects associated with each product (for example, product ID) registered in the product database 222. The virtual object is, for example, 3D image data that represents the structure of a product in three-dimensional coordinates.
The image processing database 224 stores image processing information for performing image processing. The image processing information stores, for example, learning data for performing image recognition.

なお、本実施形態では、サーバ装置20の記憶部22が、商品データベース222、ユーザデータベース221、仮想オブジェクトデータベース223、および、画像加工データベース224を含む構成を例示するが、例えば、ネットワーク上の他の装置に記憶されてもよい。 In addition, in the present embodiment, the storage unit 22 of the server device 20 exemplifies a configuration including the product database 222, the user database 221, the virtual object database 223, and the image processing database 224. It may be stored in the device.

制御部23は、CPU等の演算回路、RAM等の記憶回路により構成され、記憶部22等に記憶されているプログラム(ソフトウェア)をRAMに展開し、RAMに展開されたプログラムとの協働で、各種処理を実行する。そして、制御部23は、記憶部22に記憶された画像処理プログラムを読み込んで実行することで、図2に示すように、画像取得部231、仮想オブジェクト取得部232、標的オブジェクト検出部233、画像加工部234等として機能する。各機能については、後述にて詳細に説明する。 The control unit 23 is configured by an arithmetic circuit such as a CPU and a storage circuit such as a RAM. The control unit 23 expands a program (software) stored in the storage unit 22 or the like into the RAM and cooperates with the program expanded into the RAM. , Executes various processes. Then, the control unit 23 reads the image processing program stored in the storage unit 22 and executes the image processing program, so that as shown in FIG. 2, the image acquisition unit 231, the virtual object acquisition unit 232, the target object detection unit 233, and the image. It functions as the processing unit 234 and the like. Each function will be described in detail later.

[画像処理方法]
次に、画像処理システム1において実施される各処理について説明する。
(事前処理)
本実施形態において、サーバ装置20は、画像処理を行う前に、商品情報(例えば商品ID)をユーザデータベース221に記憶させる処理を行う。
具体的には、サーバ装置20は、ユーザ端末10から受信した商品選択コンテンツ要求に基づき、商品選択コンテンツをユーザ端末10に送信する。これにより、ユーザ端末10のディスプレイ15には、商品選択コンテンツが表示される。
なお、サーバ装置20がユーザ端末10に対して提供する商品選択コンテンツは、例えば、オンラインショッピングを提供するサービスの一部であり、ブラウザ等の汎用的なアプリケーションを介して提供されてもよく、当該サービスの提供を行うためのアプリケーションを介して提供されてもよい。
[Image processing method]
Next, each processing executed in the image processing system 1 will be described.
(Pre-processing)
In the present embodiment, the server device 20 performs a process of storing product information (for example, product ID) in the user database 221 before performing image processing.
Specifically, the server device 20 transmits the product selection content to the user terminal 10 based on the product selection content request received from the user terminal 10. As a result, the product selection content is displayed on the display 15 of the user terminal 10.
The product selection content provided by the server device 20 to the user terminal 10 is, for example, part of a service that provides online shopping, and may be provided through a general-purpose application such as a browser. It may be provided via an application for providing a service.

ユーザ端末10では、ユーザが、ディスプレイ15に表示される商品選択コンテンツのページを見ながら、オンラインショップで提供される商品を選択する操作を行う。ここで、「商品を選択する」操作とは、例えば、商品の詳細情報を閲覧する、商品をブックマークに登録する、または、商品をカートに入れる等の操作である。 In the user terminal 10, the user performs an operation of selecting a product provided in the online shop while viewing the product selection content page displayed on the display 15. Here, the operation of “selecting a product” is, for example, an operation of browsing detailed information of a product, registering a product in a bookmark, or adding a product to a cart.

サーバ装置20は、ユーザ端末10から受信する操作情報に基づいて、ユーザが選択した商品の商品情報(例えば商品ID)を、ユーザデータベース221の履歴情報(例えば閲覧履歴、ブックマーク情報またはカート情報)に記憶させる。
以下、ユーザデータベース221の履歴情報に記憶された商品を、総じてユーザ選択商品と称する。
The server device 20 uses the product information (for example, product ID) of the product selected by the user as history information (for example, browsing history, bookmark information or cart information) of the user database 221 based on the operation information received from the user terminal 10. Remember.
Hereinafter, the products stored in the history information of the user database 221 are collectively referred to as user-selected products.

少なくとも1つのユーザ選択商品がユーザデータベース221に記憶された後、ユーザは、商品選択コンテンツの任意のページ(例えば図3または図4参照)から「配置する」ボタンをタップする。サーバ装置20は、ユーザ端末10から受信する操作情報に基づいて、画像処理プログラムを実行し、以下に説明する画像処理を実施する。 After at least one user-selected product is stored in the user database 221, the user taps the “place” button from any page of product selection content (see, eg, FIG. 3 or 4). The server device 20 executes the image processing program based on the operation information received from the user terminal 10, and performs the image processing described below.

(画像処理)
図5は、サーバ装置20における画像処理を示すフローチャートである。
まず、仮想オブジェクト取得部232が、ユーザデータベース221に記憶されたユーザ選択商品を参照し、当該ユーザ選択商品の商品IDに対応付けられた仮想オブジェクトを、仮想オブジェクトデータベース223から取得する(ステップS1;仮想オブジェクト取得ステップ)。
(Image processing)
FIG. 5 is a flowchart showing image processing in the server device 20.
First, the virtual object acquisition unit 232 refers to the user-selected product stored in the user database 221, and acquires the virtual object associated with the product ID of the user-selected product from the virtual object database 223 (step S1; Virtual object acquisition step).

ここで、仮想オブジェクト取得部232は、ユーザ端末10から受信した操作情報に基づいて、ユーザデータベース221のうち、閲覧履歴、ブックマーク情報またはカート情報のいずれの記憶領域を参照するか選択してもよい。
例えば、カート情報を示すページ内の「配置する」ボタンがタップされた旨を含む操作情報を受信した場合、仮想オブジェクト取得部232は、カート情報を参照し、カート情報内のユーザ選択商品に対応する仮想オブジェクトを取得してもよい。この場合、取得される仮想オブジェクトは複数であってもよい。
また、特定商品の商品情報を示すページ内の「配置する」ボタンがタップされた旨を含む操作情報を受信した場合、仮想オブジェクト取得部232は、閲覧履歴を参照し、閲覧履歴内に一番新しく記憶されているユーザ選択商品に対応する仮想オブジェクトを取得してもよい。
以下では、説明の簡略化のために、1つの仮想オブジェクトが取得された場合を説明する。
Here, the virtual object acquisition unit 232 may select, based on the operation information received from the user terminal 10, which storage area of the browsing history, the bookmark information, or the cart information in the user database 221 is referred to. ..
For example, when the operation information including that the “place” button in the page indicating the cart information is tapped is received, the virtual object acquisition unit 232 refers to the cart information and corresponds to the user-selected product in the cart information. You may acquire the virtual object. In this case, a plurality of virtual objects may be acquired.
In addition, when the operation information including that the “place” button in the page showing the product information of the specific product is tapped is received, the virtual object acquisition unit 232 refers to the browsing history, and the virtual object acquiring unit 232 refers to the browsing history to find the most A virtual object corresponding to the newly stored user-selected product may be acquired.
Hereinafter, for simplification of description, a case where one virtual object is acquired will be described.

また、画像取得部231は、ユーザ端末10に対してカメラ起動要求を送信する。当該要求を受信したユーザ端末10は、カメラ16の動作を開始させる。そして、ユーザがカメラ16を所望のスペース(例えばユーザの部屋の一部)に向けることで、カメラ16は、現実空間を被写体とした元画像を撮像する。そして、端末制御部14が、カメラ16により撮像された元画像をサーバ装置20に送信する。これにより、画像取得部231は、ユーザ端末10から送信された元画像を取得する(ステップS2;画像取得ステップ)。 The image acquisition unit 231 also transmits a camera activation request to the user terminal 10. The user terminal 10 that has received the request starts the operation of the camera 16. Then, when the user points the camera 16 at a desired space (for example, a part of the user's room), the camera 16 captures an original image with the real space as a subject. Then, the terminal control unit 14 transmits the original image captured by the camera 16 to the server device 20. Thereby, the image acquisition unit 231 acquires the original image transmitted from the user terminal 10 (step S2; image acquisition step).

次に、標的オブジェクト検出部233が、取得された元画像に含まれる現実オブジェクトを検出する(ステップS3)。ここで、現実オブジェクトとは、現実空間に存在する物品(例えば家具など)の画像情報であり、画像認識技術によって検出可能である。なお、現実空間に複数の物品が存在する場合、標的オブジェクト検出部233は、元画像に含まれる複数の現実オブジェクトを検出してもよい。
例えば、図6の上段部分には、元画像の例が示される。この例では、テーブルおよび椅子がそれぞれ現実オブジェクトとして検出される。
Next, the target object detection unit 233 detects a real object included in the acquired original image (step S3). Here, the real object is image information of an article (for example, furniture) existing in the real space and can be detected by an image recognition technique. When there are a plurality of articles in the physical space, the target object detection unit 233 may detect the plurality of physical objects included in the original image.
For example, an example of the original image is shown in the upper part of FIG. In this example, the table and the chair are respectively detected as real objects.

次に、標的オブジェクト検出部233は、ステップS1で取得された仮想オブジェクトの特徴量と、ステップS3で検出された現実オブジェクトの特徴量とを、それぞれ算出する。そして、仮想オブジェクトと現実オブジェクトとの間における特徴量の類似度を算出する(ステップS4)。
なお、仮想オブジェクトの特徴量は、標的オブジェクト検出部233が算出するものではなく、ステップS1で取得された仮想オブジェクトの情報に含まれていてもよい。また、仮想オブジェクトの特徴量は、当該仮想オブジェクトが対応するユーザ選択商品の特徴量に相当する。
Next, the target object detection unit 233 calculates the characteristic amount of the virtual object acquired in step S1 and the characteristic amount of the real object detected in step S3. Then, the similarity of the feature amount between the virtual object and the real object is calculated (step S4).
The feature amount of the virtual object is not calculated by the target object detection unit 233 and may be included in the information of the virtual object acquired in step S1. Further, the characteristic amount of the virtual object corresponds to the characteristic amount of the user-selected product corresponding to the virtual object.

次に、標的オブジェクト検出部233は、仮想オブジェクトとの間における特徴量の類似度が閾値以上になる現実オブジェクトが存在するか否かを判断する(ステップS5)。ステップS5でNoの場合、閾値を予め設定された所定値だけ減少させ(ステップS6)、ステップS5に戻る。 Next, the target object detection unit 233 determines whether or not there is a real object whose feature amount similarity with the virtual object is equal to or more than a threshold value (step S5). In the case of No in step S5, the threshold value is decreased by a predetermined value set in advance (step S6), and the process returns to step S5.

一方、ステップS5でYesの場合、標的オブジェクト検出部233は、仮想オブジェクトとの間の特徴量の類似度が閾値以上になる現実オブジェクトを標的オブジェクトに特定する(ステップS7)。以上のステップS3〜S7は、本発明の標的オブジェクト検出ステップに相当する。
本実施形態の標的オブジェクト検出ステップ(ステップS3〜S7)によれば、元画像に存在する現実オブジェクトのうち、ユーザ選択商品に対する類似度が最も高い現実オブジェクトが標的オブジェクトとして検出される。
例えば、図6の上段部分に示す元画像の例では、仮想オブジェクトが角型テーブルの商品に対応する場合、「椅子の現実オブジェクト」ではなく、「丸型テーブルの現実オブジェクト」が標的オブジェクトとして特定される。
また、仮に、仮想オブジェクトが角型テーブルの商品に対応する場合であって、かつ、元画像から「椅子の現実オブジェクト」のみが検出された場合、閾値を繰り返し減少させることにより、最終的に、「椅子の現実オブジェクト」が標的オブジェクトとして特定される。
On the other hand, in the case of Yes in step S5, the target object detection unit 233 specifies, as the target object, a physical object whose feature amount similarity with the virtual object is equal to or more than a threshold value (step S7). The above steps S3 to S7 correspond to the target object detecting step of the present invention.
According to the target object detection step (steps S3 to S7) of the present embodiment, among the physical objects existing in the original image, the physical object having the highest degree of similarity to the product selected by the user is detected as the target object.
For example, in the example of the original image shown in the upper part of FIG. 6, when the virtual object corresponds to the product of the rectangular table, the “real object of the round table” is specified as the target object instead of the “real object of the chair”. To be done.
Further, if the virtual object corresponds to the product of the rectangular table and only the “real object of the chair” is detected from the original image, the threshold value is repeatedly decreased to finally The "real chair object" is identified as the target object.

次に、画像加工部234が、元画像を加工して加工画像を生成する(ステップS8;画像加工ステップ)。
図7は、ステップS8の画像加工処理を示すフローチャートである。
図7に示すように、画像加工部234は、まず、標的オブジェクトに関する諸条件を算出する(ステップS81)。ここで、諸条件としては、例えば、ユーザ端末10から標的オブジェクトまでの距離、標的オブジェクトの配置方向、標的オブジェクトの背景情報、標的オブジェクトの接地面情報などが挙げられる。
Next, the image processing unit 234 processes the original image to generate a processed image (step S8; image processing step).
FIG. 7 is a flowchart showing the image processing process of step S8.
As illustrated in FIG. 7, the image processing unit 234 first calculates various conditions regarding the target object (step S81). Here, the conditions include, for example, the distance from the user terminal 10 to the target object, the arrangement direction of the target object, the background information of the target object, the ground plane information of the target object, and the like.

なお、画像加工部234は、標的オブジェクトの配置方向を、ユーザ選択商品のカテゴリに基づいて算出してもよい。具体的には、商品データベース222からユーザ選択商品のカテゴリを参照し、画像加工データベース224から当該カテゴリに対応付けられた正面情報を取得する。そして、取得した正面情報に基づいて、標的オブジェクトの正面を検出することにより、標的オブジェクトの配置方向を算出してもよい。例えば、テーブルのカテゴリに対応する正面情報は、4本の脚部のうち、隣り合ういずれか2本の脚部の間の中央部を示す情報などである。また、椅子のカテゴリに対応する正面情報は、背もたれ部分に対して水平方向の反対側に位置する部分を示す情報などである。 The image processing unit 234 may calculate the placement direction of the target object based on the category of the product selected by the user. Specifically, the category of the user-selected product is referenced from the product database 222, and the front information associated with the category is acquired from the image processing database 224. Then, the arrangement direction of the target object may be calculated by detecting the front surface of the target object based on the acquired front surface information. For example, the front information corresponding to the category of the table is, for example, information indicating the central portion between any two adjacent leg portions of the four leg portions. Further, the front information corresponding to the chair category is information indicating a portion located on the opposite side in the horizontal direction with respect to the backrest portion.

次に、画像加工部234が、標的オブジェクトまたは標的オブジェクトの周囲に配置された現実オブジェクトの配置方向に基づいて、仮想オブジェクトの配置方向を決定する(ステップS82)。
例えば、標的オブジェクトに基づいて正面情報を取得できる場合には、仮想オブジェクトの配置方向が標的オブジェクトの配置方向と同じになるように、垂直中心軸を中心にした仮想オブジェクトの回転位置を設定する。
また、標的オブジェクトに基づく正面情報を取得できない場合であって、かつ、標的オブジェクトの周囲に配置された現実オブジェクトに基づいて正面情報を取得できる場合には、仮想オブジェクトの回転位置を当該正面情報に従って設定する。
例えば、図6の上段部分に示す元画像の例では、標的オブジェクト(丸型テーブル)に基づいて正面情報が取得されず、その周囲に配置された現実オブジェクト(椅子)の正面情報に基づいて、仮想オブジェクト(角型テーブル)の配置方向を設定している。
Next, the image processing unit 234 determines the arrangement direction of the virtual object based on the arrangement direction of the target object or the real object arranged around the target object (step S82).
For example, when the front information can be acquired based on the target object, the rotation position of the virtual object about the vertical center axis is set such that the virtual object is arranged in the same direction as the target object.
Further, when the front information based on the target object cannot be acquired, and when the front information can be acquired based on the real object arranged around the target object, the rotation position of the virtual object is determined according to the front information. Set.
For example, in the example of the original image shown in the upper part of FIG. 6, the front information is not acquired based on the target object (round table), and based on the front information of the real objects (chairs) arranged around it, The orientation of the virtual object (square table) is set.

次に、画像加工部234が、標的オブジェクトの背景情報に基づいてマスク画像を生成し、元画像における標的オブジェクトの表示領域(標的領域)にマスク画像を重畳させる(ステップS83)。これにより、元画像から標的オブジェクトを除去する減損現実の処理が行われ、減損画像が生成される。なお、ステップS83の処理は、公知の減損現実(DR)技術を利用できる。
図6の中段部分には、減損画像の例が示される。この例では、元画像から標的オブジェクトとして検出されたテーブルの画像が除去されている。
Next, the image processing unit 234 generates a mask image based on the background information of the target object, and superimposes the mask image on the display area (target area) of the target object in the original image (step S83). As a result, the actual impairment process of removing the target object from the original image is performed, and an impairment image is generated. A publicly known impairment reality (DR) technique can be used for the process of step S83.
An example of a depleted image is shown in the middle part of FIG. In this example, the image of the table detected as the target object is removed from the original image.

次に、画像加工部234は、減損画像に対して仮想オブジェクトを重畳させる(ステップS84)。
ここで、減損画像における仮想オブジェクトの配置方向は、ステップS82で設定された配置方向である。また、減損画像における仮想オブジェクトの垂直方向の位置は、現実オブジェクトが接地していた接地面に基づいて設定される。また、減損画像における仮想オブジェクトの水平方向の中央位置は、元画像における現実オブジェクトの水平方向の中央位置に基づいて設定される。
なお、ステップS84の処理は、公知の拡張現実(AR)技術を利用できる。
Next, the image processing unit 234 superimposes the virtual object on the impaired image (step S84).
Here, the arrangement direction of the virtual object in the impairment image is the arrangement direction set in step S82. Further, the vertical position of the virtual object in the impairment image is set based on the ground plane on which the real object was grounded. Also, the horizontal center position of the virtual object in the impairment image is set based on the horizontal center position of the physical object in the original image.
A publicly known augmented reality (AR) technique can be used for the process of step S84.

これにより、元画像における標的オブジェクトを仮想オブジェクトに置き換えた加工画像が生成される。例えば、図6の下段部分には、加工画像の例が示される。この例では、現実空間に存在する丸型のテーブルの替わりに、仮想オブジェクトである角型のテーブルが部屋に表示されている。 As a result, a processed image in which the target object in the original image is replaced with the virtual object is generated. For example, an example of a processed image is shown in the lower part of FIG. In this example, a rectangular table, which is a virtual object, is displayed in the room instead of the circular table that exists in the physical space.

なお、複数の標的オブジェクトが特定されている場合には、各標的オブジェクトについて、ステップS81〜S84の処理が行われてもよい。この場合、元画像における複数の標的オブジェクトのそれぞれが仮想オブジェクトに置き換えられる。
あるいは、複数の標的オブジェクトが特定されている場合、一部の標的オブジェクトを選択してもよい。この選択処理は、ユーザの操作に基づいた処理でもよいし、画面の中央などの所定領域に位置する標的オブジェクトを選択する画像加工部234の処理であってもよい。
When a plurality of target objects are specified, the processing of steps S81 to S84 may be performed for each target object. In this case, each of the plurality of target objects in the original image is replaced with the virtual object.
Alternatively, when a plurality of target objects are specified, some target objects may be selected. This selection process may be a process based on a user operation, or may be a process of the image processing unit 234 that selects a target object located in a predetermined area such as the center of the screen.

図5に戻って、画像加工部234は、生成した加工画像をユーザ端末10に送信し、ユーザ端末10のディスプレイ15に加工画像を表示させる(ステップS9)。
例えば、図8は、現実空間RSと、この現実空間RSを撮像したときにユーザ端末10のディスプレイ15に表示される加工画像PIとの各例を示している。図8に示す例のように、ユーザは、現実空間を撮像することにより、現実空間の物品がユーザ選択商品に仮想的に置き換わった加工画像を見ることができる。これにより、ユーザは、現実空間内の物品をユーザ選択商品に置き換えた場合の雰囲気やサイズ感などを直感的に知ることができる。
Returning to FIG. 5, the image processing unit 234 transmits the generated processed image to the user terminal 10 and causes the display 15 of the user terminal 10 to display the processed image (step S9).
For example, FIG. 8 shows an example of the physical space RS and the processed image PI displayed on the display 15 of the user terminal 10 when the physical space RS is imaged. As in the example shown in FIG. 8, the user can view the processed image in which the article in the real space is virtually replaced by the product selected by the user by imaging the real space. As a result, the user can intuitively know the atmosphere and the size feeling when the article in the physical space is replaced with the user-selected product.

なお、カメラ16が動画モードで撮像を行っている場合、画像取得部231は、フレーム画像としての元画像を所定周期で取得する。すなわち、ステップS9の後、所定の停止条件を満たしていない場合(ステップS10;No)、画像取得部231は、次の元画像を取得し(ステップS11)、ステップS8に戻る。ここで、標的オブジェクト検出部233は、初回フローで特定した標的オブジェクトを追跡する処理を行っており、2回目のフロー以降では、標的オブジェクト検出部233により追跡された標的オブジェクトが利用される。
なお、ユーザが停止操作を行う等、所定の停止条件を満たした場合(ステップS10;Yes)、当該フローは終了する。
When the camera 16 is capturing an image in the moving image mode, the image acquisition unit 231 acquires an original image as a frame image at a predetermined cycle. That is, after step S9, when the predetermined stop condition is not satisfied (step S10; No), the image acquisition unit 231 acquires the next original image (step S11), and returns to step S8. Here, the target object detection unit 233 performs a process of tracking the target object specified in the first flow, and the target object tracked by the target object detection unit 233 is used after the second flow.
When a predetermined stop condition is satisfied (step S10; Yes), such as the user performing a stop operation, the flow ends.

[第1実施形態の作用効果]
本実施形態のサーバ装置20は、制御部23が画像処理プログラムを読み出し実行することで、画像取得部231、仮想オブジェクト取得部232、標的オブジェクト検出部233、および、画像加工部234として機能する。そして、仮想オブジェクト取得部232は、ユーザ選択商品の情報に基づいて、ユーザ選択商品の仮想オブジェクトを取得し、画像取得部231は、カメラ16によって撮像された元画像を取得する。標的オブジェクト検出部233は、ユーザ選択商品の情報に基づいて元画像から標的オブジェクトを検出する。画像加工部234は、元画像内の標的オブジェクトを仮想オブジェクトに置き換えた加工画像を生成する。
このような本実施形態において、サーバ装置20は、元画像を取得することにより、元画像内の適切な現実オブジェクトをユーザ選択商品の仮想オブジェクトに自動的に置き換えることができる。これにより、ユーザは、現実空間内の物品を移動させたり、減損現実の度合いを設定したりといった手間をかけずに、元画像内の物品を容易に置き換えることができる。
[Operation and effect of the first embodiment]
The server device 20 of the present embodiment functions as the image acquisition unit 231, the virtual object acquisition unit 232, the target object detection unit 233, and the image processing unit 234 by the control unit 23 reading and executing the image processing program. Then, the virtual object acquisition unit 232 acquires the virtual object of the user-selected product based on the information of the user-selected product, and the image acquisition unit 231 acquires the original image captured by the camera 16. The target object detection unit 233 detects the target object from the original image based on the information on the product selected by the user. The image processing unit 234 generates a processed image in which the target object in the original image is replaced with a virtual object.
In the present embodiment as described above, the server device 20 can automatically replace an appropriate real object in the original image with the virtual object of the user-selected product by acquiring the original image. As a result, the user can easily replace the article in the original image without the trouble of moving the article in the physical space or setting the degree of the impaired reality.

本実施形態では、標的オブジェクト検出部233は、元画像に存在する現実オブジェクトのうち、ユーザ選択商品に対する類似度が閾値以上になる現実オブジェクトを、標的オブジェクトとして検出する。
このような構成では、元画像が複数の種類の現実オブジェクトを含んでいる場合であっても、ユーザ選択商品に関する現実オブジェクトを標的オブジェクトとして容易に検出できる。
In the present embodiment, the target object detection unit 233 detects, as a target object, a real object that has a similarity to the user-selected product that is equal to or greater than a threshold value among the real objects that are present in the original image.
With such a configuration, even when the original image includes a plurality of types of physical objects, the physical object relating to the product selected by the user can be easily detected as the target object.

本実施形態において、標的オブジェクト検出部233は、現実オブジェクトと仮想オブジェクトとの間の類似度が閾値よりも小さい場合、閾値を減少させる。
このような構成によれば、元画像内の現実オブジェクトがユーザ選択商品とは大きく異なるものであっても、標的オブジェクトとして検出することができる。
In the present embodiment, the target object detection unit 233 reduces the threshold value when the similarity between the real object and the virtual object is smaller than the threshold value.
With such a configuration, even if the real object in the original image is significantly different from the user-selected product, it can be detected as the target object.

本実施形態において、画像加工部234は、標的オブジェクトまたは標的オブジェクトの周囲に配置された現実オブジェクトの配置方向に基づいて、加工画像における仮想オブジェクトの配置方向を設定する。
このような構成では、ユーザの手間を必要とせずに、仮想オブジェクトを自然な見た目で配置することができる。
In the present embodiment, the image processing unit 234 sets the arrangement direction of the virtual object in the processed image based on the arrangement direction of the target object or the real object arranged around the target object.
With such a configuration, the virtual object can be arranged with a natural appearance without requiring the user's trouble.

[第2実施形態]
次に、第2実施形態について説明する。
上述した第1実施形態では、標的オブジェクト検出部233が、元画像からユーザ選択商品に関する標的オブジェクトを検出している。すなわち、第1実施形態では、ユーザが事前に商品を選択している必要がある。これに対して、第2実施形態では、標的オブジェクト検出部233が、元画像の所定領域に配置された現実オブジェクトを標的オブジェクトとして検出するものであり、ユーザが事前に商品を選択する必要がない点で第1実施形態と相違する。
[Second Embodiment]
Next, a second embodiment will be described.
In the above-described first embodiment, the target object detection unit 233 detects the target object relating to the user-selected product from the original image. That is, in the first embodiment, the user needs to select the product in advance. On the other hand, in the second embodiment, the target object detection unit 233 detects a real object arranged in a predetermined area of the original image as a target object, and the user does not need to select a product in advance. It is different from the first embodiment in points.

以下、第2実施形態のサーバ装置20における画像処理方法について説明する。サーバ装置20は、ユーザ端末10から受信する操作情報に基づいて、画像処理プログラムを実行し、以下に説明する画像処理を実施する。 The image processing method in the server device 20 of the second embodiment will be described below. The server device 20 executes the image processing program based on the operation information received from the user terminal 10, and performs the image processing described below.

図9は、第2実施形態のサーバ装置20における画像処理を示すフローチャートである。なお、図9では、第1実施形態と同様の処理には同様の符号を付している。
まず、画像取得部231が、ユーザ端末10に対してカメラ起動要求を送信する。当該要求を受信したユーザ端末10は、第1実施形態と同様、カメラ16に撮像された元画像をサーバ装置20に送信する。これにより、画像取得部231は、ユーザ端末10から送信された元画像を取得する(ステップS2)。
FIG. 9 is a flowchart showing image processing in the server device 20 of the second embodiment. In FIG. 9, the same processes as those in the first embodiment are designated by the same reference numerals.
First, the image acquisition unit 231 transmits a camera activation request to the user terminal 10. The user terminal 10 that has received the request transmits the original image captured by the camera 16 to the server device 20 as in the first embodiment. Thereby, the image acquisition unit 231 acquires the original image transmitted from the user terminal 10 (step S2).

次に、標的オブジェクト検出部233が、取得された元画像のうち所定領域に配置された現実オブジェクトを、標的オブジェクトとして検出する(ステップS21)。ここで、所定領域は、元画像内に任意に設定可能であり、例えば元画像内の中央領域であってもよいし、元画像においてカメラ16が合焦している領域であってもよい。 Next, the target object detection unit 233 detects, as a target object, a real object arranged in a predetermined area in the acquired original image (step S21). Here, the predetermined area can be arbitrarily set in the original image, and may be, for example, a central area in the original image or an area in which the camera 16 is in focus in the original image.

次に、仮想オブジェクト取得部232が、標的オブジェクトに関する物品の仮想オブジェクトを取得する(ステップS22)。
例えば、仮想オブジェクト取得部232は、標的オブジェクトを分析し、当該標的オブジェクトが、商品データベース222に登録されている商品のうち、いずれの商品に該当するかを推定する。そして、標的オブジェクトに該当すると推定された商品(推定商品)に基づいて、当該推定商品と同じカテゴリに属する商品の仮想オブジェクトを取得してもよい。
あるいは、仮想オブジェクト取得部232は、標的オブジェクトの特徴量を算出し、当該標的オブジェクトの間の類似度が閾値以上となる仮想オブジェクトを取得してもよい。
なお、説明の簡略化のために、ここでは、いずれか1つの仮想オブジェクトが取得されるものとし、以降の処理は、第1実施形態と同様である。
Next, the virtual object acquisition unit 232 acquires the virtual object of the article related to the target object (step S22).
For example, the virtual object acquisition unit 232 analyzes the target object and estimates which product among the products registered in the product database 222 the target object corresponds to. Then, based on the product (estimated product) estimated to correspond to the target object, a virtual object of the product belonging to the same category as the estimated product may be acquired.
Alternatively, the virtual object acquisition unit 232 may calculate the characteristic amount of the target object and acquire the virtual object whose similarity between the target objects is equal to or more than a threshold value.
Note that for simplification of description, it is assumed that any one virtual object is acquired here, and the subsequent processing is the same as that in the first embodiment.

以上の処理によれば、ユーザは、現実空間を撮像することにより、現実空間の所定領域に配置された物品が当該物品に関連する商品に仮想的に置き換わった加工画像を見ることができる。 According to the above processing, the user can view the processed image in which the article arranged in the predetermined area of the real space is virtually replaced with the article related to the article by capturing the image of the real space.

[第2実施形態の作用効果]
第2実施形態では、標的オブジェクト検出部233は、元画像から所定領域に配置された標的オブジェクトを検出する。
このような第2実施形態において、サーバ装置20は、元画像を取得することにより、元画像内の所定領域に配置された物品を、任意の商品の仮想オブジェクトに自動的に置き換える。これにより、ユーザは、現実空間内の物品を移動させたり、減損現実の度合いを設定したりといった手間をかけずに、画像内の物品を容易に置き換えることができる。
[Operation and effect of the second embodiment]
In the second embodiment, the target object detection unit 233 detects a target object arranged in a predetermined area from the original image.
In the second embodiment as described above, the server device 20 automatically replaces the article placed in the predetermined area in the original image with a virtual object of an arbitrary article by acquiring the original image. As a result, the user can easily replace the article in the image without the trouble of moving the article in the physical space or setting the degree of the impaired reality.

また、第2実施形態では、仮想オブジェクト取得部232は、標的オブジェクトに基づいて、物品の仮想オブジェクトを取得するため、ユーザが事前に商品を選択する必要がない。このため、新調したい物品が存在するが、購入する商品が決まっていない場合などに、購入候補となり得る商品の提案をサーバ装置20から受けることができる。 Further, in the second embodiment, the virtual object acquisition unit 232 acquires the virtual object of the article based on the target object, so that the user does not need to select the product in advance. Therefore, when there is an item to be renewed but the product to be purchased has not been decided, the server device 20 can receive a proposal of a product that can be a purchase candidate.

[変形例]
本発明は、上述した各実施形態に限定されるものではなく、本発明の目的を達成できる範囲で、以下に示される変形をも含むものである。
[Modification]
The present invention is not limited to each of the above-described embodiments, but also includes the following modifications within a range in which the object of the present invention can be achieved.

(変形例1)
上記各実施形態では、説明の簡略化のために、仮想オブジェクト取得部232が1つの仮想オブジェクトを取得する場合について説明しているが、本発明はこれに限られない。すなわち、複数の仮想オブジェクトを取得する場合でも、上述の説明を適用できる。
(Modification 1)
In each of the above-described embodiments, the case where the virtual object acquisition unit 232 acquires one virtual object has been described for simplification of description, but the present invention is not limited to this. That is, the above description can be applied even when a plurality of virtual objects are acquired.

例えば、第1実施形態において、仮想オブジェクト取得部232は、ある現実オブジェクトが複数の仮想オブジェクトとの間で閾値以上の類似度を有する場合、当該現実オブジェクトと複数の仮想オブジェクトとを対応付けると共に、当該現実オブジェクトを標的オブジェクトとして検出する。そして、標的オブジェクトを、当該標的オブジェクトに対応付けられているいずれかの仮想オブジェクトに置き換え、所定時間毎に、配置する仮想オブジェクトを切り替えてもよい。
また、複数の仮想オブジェクトに対応づけられる標的オブジェクトが複数存在する場合には、配置する仮想オブジェクトの組み合わせを作成し、当該組み合わせを所定時間毎に異なる組み合わせに切り替えてもよい。
For example, in the first embodiment, the virtual object acquisition unit 232 associates the real object with a plurality of virtual objects and associates the real object with a plurality of virtual objects when a certain real object has a similarity degree equal to or more than a threshold value with the plurality of virtual objects. A real object is detected as a target object. Then, the target object may be replaced with any virtual object associated with the target object, and the virtual object to be arranged may be switched at predetermined time intervals.
In addition, when there are a plurality of target objects associated with a plurality of virtual objects, a combination of virtual objects to be arranged may be created and the combination may be switched to a different combination every predetermined time.

また、第2実施形態では、仮想オブジェクト取得部232が取得する仮想オブジェクトの取得数が、予め任意の数に設定されていてもよい。そして、複数の仮想オブジェクトが取得された場合には、一定周期毎に、標的オブジェクトと置き換える仮想オブジェクトを切り替えてもよい。
このような変形例は、特に画像処理システム1が電子商取引システムの一部を構成している場合などに有用である。例えば、ユーザの手間を必要とせずに、元画像内の物品を複数の仮想オブジェクトを順次置き換えることができるため、ユーザは複数の商品を容易に比較検討することができる。
Further, in the second embodiment, the number of virtual objects acquired by the virtual object acquisition unit 232 may be set in advance to an arbitrary number. Then, when a plurality of virtual objects are acquired, the virtual object that replaces the target object may be switched at regular intervals.
Such a modified example is particularly useful when the image processing system 1 constitutes a part of an electronic commerce system. For example, since the article in the original image can be sequentially replaced with the plurality of virtual objects without requiring the user's trouble, the user can easily compare and consider the plurality of products.

(変形例2)
上記第1実施形態では、仮想オブジェクトに対する類似度が閾値以上になる現実オブジェクトを、標的オブジェクトとして検出しているが、本発明はこれに限られない。
例えば、標的オブジェクト検出部233は、取得した現実オブジェクトを解析し、当該現実オブジェクトが対応するカテゴリを判定してもよい。そして、標的オブジェクト検出部233は、仮想オブジェクトと同じカテゴリに属する現実オブジェクトを、標的オブジェクトとして検出してもよい。
また、標的オブジェクト検出部233は、機械学習などの他の任意の方法を利用して、標的オブジェクトを検出することができる。
(Modification 2)
In the first embodiment, the real object whose similarity to the virtual object is equal to or higher than the threshold is detected as the target object, but the present invention is not limited to this.
For example, the target object detection unit 233 may analyze the acquired real object and determine the category to which the real object corresponds. Then, the target object detection unit 233 may detect a real object belonging to the same category as the virtual object as the target object.
In addition, the target object detection unit 233 can detect the target object using any other method such as machine learning.

(変形例3)
上記第1実施形態において、仮想オブジェクト取得部232は、ユーザデータベース221の履歴情報に記憶された商品(ユーザ選択商品)の情報に基づいて、ユーザ選択商品の仮想オブジェクトを取得しているが、本発明はこれに限定されない。例えば、ユーザデータベース221のリコメンド情報に記憶された商品の情報に基づいて、当該商品の仮想オブジェクトを取得してもよい。
(Modification 3)
In the first embodiment, the virtual object acquisition unit 232 acquires the virtual object of the user-selected product based on the product (user-selected product) information stored in the history information of the user database 221. The invention is not limited to this. For example, the virtual object of the product may be acquired based on the product information stored in the recommendation information of the user database 221.

(変形例4)
上記第2実施形態では、ステップS22において、仮想オブジェクト取得部232が、標的オブジェクトに基づいて仮想オブジェクトを取得するが、ユーザ情報に含まれた商品情報に基づいて仮想オブジェクトを取得してもよい。
ここで、ユーザ情報に含まれた商品情報とは、例えば履歴情報(閲覧履歴、ブックマーク情報、カート情報および購入履歴など)またはリコメンド情報に登録された商品情報である。
このような変形例によれば、上記第2実施形態と同様、購入候補となり得る商品の提案をサーバ装置20から受けることができる。また、このような変形例では、標的オブジェクトのカテゴリにとらわれず、様々なカテゴリの物品の提案を受けることができる。
(Modification 4)
In the second embodiment, in step S22, the virtual object acquisition unit 232 acquires the virtual object based on the target object, but the virtual object may be acquired based on the product information included in the user information.
Here, the product information included in the user information is, for example, product information registered in history information (browsing history, bookmark information, cart information, purchase history, etc.) or recommendation information.
According to such a modified example, similarly to the second embodiment, it is possible to receive a proposal of a product that can be a purchase candidate from the server device 20. Further, in such a modification, it is possible to receive proposals for articles in various categories regardless of the category of the target object.

(変形例5)
上記各実施形態では、サーバ装置20が、上述の画像処理を行う構成を例示したが、ユーザ端末10が上述の画像処理を行ってもよい。すなわち、本発明の画像処理プログラムをインストールされたユーザ端末10において、端末制御部14が、当該画像処理プログラムを読み出し実行することで、本発明の画像取得部、仮想オブジェクト取得部、標的オブジェクト検出部および画像加工部として機能してもよい。
また、サーバ装置20における処理の一部をユーザ端末10が行ってもよい。例えば、サーバ装置20は、マスク画像および仮想オブジェクトをユーザ端末10に送信し、ユーザ端末10は、受信したマスク画像および仮想オブジェクトを元画像に重畳させてもよい。すなわち、本発明の画像処理装置は、通信可能な複数のコンピュータからなるシステムとして構成されてもよい。
(Modification 5)
In each of the above embodiments, the server device 20 exemplifies the configuration for performing the above-mentioned image processing, but the user terminal 10 may perform the above-mentioned image processing. That is, in the user terminal 10 in which the image processing program of the present invention is installed, the terminal control unit 14 reads out and executes the image processing program, so that the image acquisition unit, the virtual object acquisition unit, and the target object detection unit of the present invention. And may function as an image processing unit.
In addition, the user terminal 10 may perform a part of the processing in the server device 20. For example, the server device 20 may transmit the mask image and the virtual object to the user terminal 10, and the user terminal 10 may superimpose the received mask image and the virtual object on the original image. That is, the image processing apparatus of the present invention may be configured as a system including a plurality of communicable computers.

(変形例6)
本発明の物品は、家具であることに限られない。すなわち、本発明は、例えば被服、装身具、家電または建物設備など、交換や新調を検討することが想定される様々な物品に適用できる。
(Modification 6)
The article of the present invention is not limited to furniture. That is, the present invention can be applied to various articles, such as clothing, accessories, home appliances, and building equipment, which are expected to be exchanged or considered new.

(変形例7)
上記各実施形態では、画像処理システム1が、電子商取引システムの一部であるとして説明しているが、本発明はこれに限られない。すなわち、本発明の画像処理システム1は、単独システムであってもよいし、他のシステムに組み合わされてもよい。また、本発明の物品は、商品の形態であることに限定されず、非売品や譲渡品であってもよい。
(Modification 7)
In each of the above embodiments, the image processing system 1 is described as being a part of the electronic commerce system, but the present invention is not limited to this. That is, the image processing system 1 of the present invention may be a single system or may be combined with another system. Further, the article of the present invention is not limited to the product form, and may be a non-sale item or a transfer item.

その他、本発明の実施の際の具体的な構造および手順は、本発明の目的を達成できる範囲で他の構造などに適宜変更できる。 In addition, the specific structure and procedure for carrying out the present invention can be appropriately changed to other structures and the like within the range in which the object of the present invention can be achieved.

1…画像処理システム、10…ユーザ端末、11…端末通信部、12…入力操作部、13…端末記憶部、14…端末制御部、15…ディスプレイ、16…カメラ、20…サーバ装置、21…通信部、22…記憶部、221…ユーザデータベース、222…商品データベース、223…仮想オブジェクトデータベース、224…画像加工データベース、23…制御部、231…画像取得部、232…仮想オブジェクト取得部、233…標的オブジェクト検出部、234…画像加工部。 DESCRIPTION OF SYMBOLS 1... Image processing system, 10... User terminal, 11... Terminal communication part, 12... Input operation part, 13... Terminal storage part, 14... Terminal control part, 15... Display, 16... Camera, 20... Server device, 21... Communication unit, 22... Storage unit, 221... User database, 222... Product database, 223... Virtual object database, 224... Image processing database, 23... Control unit, 231,... Image acquisition unit, 232... Virtual object acquisition unit, 233... Target object detection unit, 234... Image processing unit.

Claims (11)

ユーザ情報に含まれた物品の情報に基づいて、当該物品の仮想オブジェクトを取得する仮想オブジェクト取得部と、
撮像装置によって撮像された元画像を取得する画像取得部と、
前記物品の情報に基づいて前記元画像から標的オブジェクトを検出する標的オブジェクト検出部と、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部と、を備えることを特徴とする画像処理装置。
A virtual object acquisition unit that acquires a virtual object of the article based on the article information included in the user information;
An image acquisition unit that acquires the original image captured by the imaging device,
A target object detection unit that detects a target object from the original image based on the information of the article,
And an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object.
請求項1に記載の画像処理装置であって、
前記標的オブジェクト検出部は、
前記元画像に存在する現実オブジェクトのうち、前記物品に対する類似度が閾値以上になる前記現実オブジェクトを、前記標的オブジェクトとして検出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1, wherein
The target object detection unit,
An image processing apparatus, characterized in that, among the physical objects existing in the original image, the physical object whose similarity to the article is equal to or more than a threshold value is detected as the target object.
請求項2に記載の画像処理装置であって、
前記標的オブジェクト検出部は、前記現実オブジェクトと前記仮想オブジェクトとの間の前記類似度が前記閾値よりも小さい場合、当該閾値を減少させることを特徴とする画像処理装置。
The image processing apparatus according to claim 2, wherein
The image processing apparatus, wherein the target object detection unit reduces the threshold value when the similarity between the physical object and the virtual object is smaller than the threshold value.
ユーザが利用する撮像装置によって撮像された元画像を取得する画像取得部と、
前記元画像から所定領域に配置された標的オブジェクトを検出する標的オブジェクト検出部と、
物品の仮想オブジェクトを取得する仮想オブジェクト取得部と、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部と、を備えることを特徴とする画像処理装置。
An image acquisition unit that acquires an original image captured by an imaging device used by a user,
A target object detection unit that detects a target object arranged in a predetermined area from the original image,
A virtual object acquisition unit for acquiring a virtual object of an article,
And an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object.
請求項4に記載の画像処理装置であって、
前記仮想オブジェクト取得部は、前記標的オブジェクトに基づいて、または、前記ユーザのユーザ情報に含まれた前記物品の情報に基づいて、前記物品の前記仮想オブジェクトを取得することを特徴とする画像処理装置。
The image processing apparatus according to claim 4, wherein
The image processing apparatus, wherein the virtual object acquisition unit acquires the virtual object of the article based on the target object or based on information of the article included in the user information of the user. ..
請求項1から請求項5のいずれか一項に記載の画像処理装置であって、
前記画像加工部は、前記標的オブジェクトの配置方向に基づいて、前記加工画像における前記仮想オブジェクトの配置方向を設定することを特徴とする画像処理装置。
The image processing device according to any one of claims 1 to 5,
The image processing device, wherein the image processing unit sets an arrangement direction of the virtual object in the processed image based on an arrangement direction of the target object.
請求項1から請求項6のいずれか一項に記載の画像処理装置であって、
前記仮想オブジェクト取得部が複数の前記仮想オブジェクトを取得している場合、
前記画像加工部は、前記標的オブジェクトと置き換える前記仮想オブジェクトを所定時間毎に切り替えることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6, wherein:
When the virtual object acquisition unit acquires a plurality of the virtual objects,
The image processing apparatus, wherein the image processing unit switches the virtual object to be replaced with the target object at predetermined time intervals.
コンピュータにより画像処理を実施させる画像処理方法であって、
ユーザ情報に含まれた物品の情報に基づいて、当該物品の仮想オブジェクトを取得する仮想オブジェクト取得ステップと、
撮像装置によって撮像された元画像を取得する画像取得ステップと、
前記物品の情報に基づいて前記元画像から標的オブジェクトを検出する標的オブジェクト検出ステップと、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工ステップと、を含むことを特徴とする画像処理方法。
An image processing method for causing a computer to perform image processing,
A virtual object acquisition step of acquiring a virtual object of the article based on the article information included in the user information;
An image acquisition step of acquiring an original image imaged by the imaging device,
A target object detection step of detecting a target object from the original image based on the information of the article,
An image processing step of generating a processed image in which the target object in the original image is replaced with the virtual object.
コンピュータにより画像処理を実施させる画像処理方法であって、
ユーザが利用する撮像装置によって撮像された元画像を取得する画像取得ステップと、
前記元画像から所定領域に配置された標的オブジェクトを検出する標的オブジェクト検出ステップと、
物品の仮想オブジェクトを取得する仮想オブジェクト取得ステップと、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工ステップと、を含むことを特徴とする画像処理方法。
An image processing method for causing a computer to perform image processing,
An image acquisition step of acquiring an original image imaged by the imaging device used by the user,
A target object detecting step of detecting a target object arranged in a predetermined region from the original image,
A virtual object acquisition step of acquiring a virtual object of the article,
An image processing step of generating a processed image in which the target object in the original image is replaced with the virtual object.
コンピュータに読み込まれて実行される画像処理プログラムであって、
前記コンピュータを、
ユーザ情報に含まれた物品の情報に基づいて、当該物品の仮想オブジェクトを取得する仮想オブジェクト取得部、
撮像装置によって撮像された元画像を取得する画像取得部、
前記物品の情報に基づいて前記元画像から標的オブジェクトを検出する標的オブジェクト検出部、および、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部として、機能させることを特徴とする画像処理プログラム。
An image processing program that is read and executed by a computer,
The computer,
A virtual object acquisition unit that acquires a virtual object of the article based on the article information included in the user information,
An image acquisition unit that acquires the original image captured by the imaging device,
A target object detection unit that detects a target object from the original image based on the information of the article, and
An image processing program that functions as an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object.
コンピュータに読み込まれて実行される画像処理プログラムであって、
前記コンピュータを、
ユーザが利用する撮像装置によって撮像された元画像を取得する画像取得部、
前記元画像から所定領域に配置された標的オブジェクトを検出する標的オブジェクト検出部、
物品の仮想オブジェクトを取得する仮想オブジェクト取得部、および、
前記元画像内の前記標的オブジェクトを前記仮想オブジェクトに置き換えた加工画像を生成する画像加工部として、機能させることを特徴とする画像処理プログラム。
An image processing program that is read and executed by a computer,
The computer,
An image acquisition unit that acquires the original image imaged by the imaging device used by the user,
A target object detection unit that detects a target object arranged in a predetermined area from the original image,
A virtual object acquisition unit for acquiring a virtual object of an article, and
An image processing program that functions as an image processing unit that generates a processed image in which the target object in the original image is replaced with the virtual object.
JP2018235649A 2018-12-17 2018-12-17 Image processing device, image processing method and image processing program Active JP7139236B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018235649A JP7139236B2 (en) 2018-12-17 2018-12-17 Image processing device, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018235649A JP7139236B2 (en) 2018-12-17 2018-12-17 Image processing device, image processing method and image processing program

Publications (2)

Publication Number Publication Date
JP2020098409A true JP2020098409A (en) 2020-06-25
JP7139236B2 JP7139236B2 (en) 2022-09-20

Family

ID=71105998

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018235649A Active JP7139236B2 (en) 2018-12-17 2018-12-17 Image processing device, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP7139236B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023000947A (en) * 2021-06-18 2023-01-04 ヤフー株式会社 Device, method, and program for display control
WO2023171355A1 (en) * 2022-03-07 2023-09-14 ソニーセミコンダクタソリューションズ株式会社 Imaging system, video processing method, and program
WO2023197780A1 (en) * 2022-04-12 2023-10-19 北京字跳网络技术有限公司 Image processing method and apparatus, electronic device, and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122321A (en) * 2005-10-27 2007-05-17 Seiko Epson Corp Identification of subject represented in image
JP2011095797A (en) * 2009-10-27 2011-05-12 Sony Corp Image processing device, image processing method and program
JP2012253483A (en) * 2011-06-01 2012-12-20 Sony Corp Image processing apparatus, image processing method, and program
JP2013500771A (en) * 2009-07-29 2013-01-10 マイクロソフト コーポレーション Method and system for automatically generating visual display
JP2016071682A (en) * 2014-09-30 2016-05-09 大日本印刷株式会社 Object arrangement device, object arrangement method, and program
JP2017054516A (en) * 2007-09-25 2017-03-16 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH Method and device for illustrating virtual object in real environment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007122321A (en) * 2005-10-27 2007-05-17 Seiko Epson Corp Identification of subject represented in image
JP2017054516A (en) * 2007-09-25 2017-03-16 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツングmetaio GmbH Method and device for illustrating virtual object in real environment
JP2013500771A (en) * 2009-07-29 2013-01-10 マイクロソフト コーポレーション Method and system for automatically generating visual display
JP2011095797A (en) * 2009-10-27 2011-05-12 Sony Corp Image processing device, image processing method and program
JP2012253483A (en) * 2011-06-01 2012-12-20 Sony Corp Image processing apparatus, image processing method, and program
JP2016071682A (en) * 2014-09-30 2016-05-09 大日本印刷株式会社 Object arrangement device, object arrangement method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023000947A (en) * 2021-06-18 2023-01-04 ヤフー株式会社 Device, method, and program for display control
WO2023171355A1 (en) * 2022-03-07 2023-09-14 ソニーセミコンダクタソリューションズ株式会社 Imaging system, video processing method, and program
WO2023197780A1 (en) * 2022-04-12 2023-10-19 北京字跳网络技术有限公司 Image processing method and apparatus, electronic device, and storage medium

Also Published As

Publication number Publication date
JP7139236B2 (en) 2022-09-20

Similar Documents

Publication Publication Date Title
US10733801B2 (en) Markerless image analysis for augmented reality
US10026229B1 (en) Auxiliary device as augmented reality platform
US8036416B2 (en) Method and apparatus for augmenting a mirror with information related to the mirrored contents and motion
WO2015129353A1 (en) Virtual trial-fitting system, virtual trial-fitting program, virtual trial-fitting method, and storage medium in which virtual trial-fitting program is stored
CN110716645A (en) Augmented reality data presentation method and device, electronic equipment and storage medium
JP7139236B2 (en) Image processing device, image processing method and image processing program
US20150187137A1 (en) Physical object discovery
CN106127552B (en) Virtual scene display method, device and system
CN107430686A (en) Mass-rent for the zone profiles of positioning of mobile equipment creates and renewal
JP5439787B2 (en) Camera device
JP2013168132A (en) Commodity retrieval device, method and program
EP3599590A1 (en) An online virtual shoe fitting method
JP2016514865A (en) Real-world analysis visualization
US20150120496A1 (en) Shopping System
JP2015079444A5 (en)
JP6659901B2 (en) Program, information processing method, and information processing apparatus
KR20150132527A (en) Segmentation of content delivery
JP2015079433A5 (en)
JP2020119156A (en) Avatar creating system, avatar creating device, server device, avatar creating method and program
US20130002822A1 (en) Product ordering system, program and method
CN110858375A (en) Data, display processing method and device, electronic equipment and storage medium
JP6656572B1 (en) Information processing apparatus, display control method, and display control program
US9672436B1 (en) Interfaces for item search
US20210150590A1 (en) Image retrieval apparatus image retrieval method, product catalog generation system, and recording medium
US11941763B2 (en) Viewing system, model creation apparatus, and control method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220725

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220725

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220803

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220816

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220907

R150 Certificate of patent or registration of utility model

Ref document number: 7139236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350