JP2023055725A - Image display system and program - Google Patents

Image display system and program Download PDF

Info

Publication number
JP2023055725A
JP2023055725A JP2023003426A JP2023003426A JP2023055725A JP 2023055725 A JP2023055725 A JP 2023055725A JP 2023003426 A JP2023003426 A JP 2023003426A JP 2023003426 A JP2023003426 A JP 2023003426A JP 2023055725 A JP2023055725 A JP 2023055725A
Authority
JP
Japan
Prior art keywords
image
content
display
candidate
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023003426A
Other languages
Japanese (ja)
Inventor
健太 菅原
Kenta Sugawara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Radius5 Inc
Original Assignee
Radius5 Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022166562A external-priority patent/JP7215793B2/en
Application filed by Radius5 Inc filed Critical Radius5 Inc
Publication of JP2023055725A publication Critical patent/JP2023055725A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image that a user wants by an intuitive operation.
SOLUTION: The image display system includes: a first display controller for displaying a reference image in a display surface; and a second display controller for selectably displaying a plurality of candidate images each having image information different from the reference image in a region near the display region of the reference image of the display surface. The image data of the candidate images is included in a search region on a predetermined space determined according to the image data of the reference image.
SELECTED DRAWING: Figure 8
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、画像表示システム及びプログラムに関する。 The present invention relates to an image display system and program.

近年、AI(Artificial Intelligence;人工知能)による画像の自動生成の技術が開発されている。例えば、下記非特許文献1には、GAN(Generative Adversarial Networks;敵対的生成ネットワーク)と呼ばれるアルゴリズムを用いて人物のイラストを自動生成する技術が開示されている。 In recent years, techniques for automatically generating images using AI (Artificial Intelligence) have been developed. For example, Non-Patent Document 1 below discloses a technique for automatically generating an illustration of a person using an algorithm called GAN (Generative Adversarial Networks).

非特許文献2には、アニメキャラクタに特化した画像の自動生成技術、およびアニメキャラクタをユーザの好みに応じて生成するためのインタフェースについて開示されている。 Non-Patent Document 2 discloses a technology for automatically generating images specialized for anime characters, and an interface for generating anime characters according to user's preferences.

Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio, "Generative Adversarial Nets" In NIPS 2014.Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, Yoshua Bengio, "Generative Adversarial Nets" In NIPS 2014. Yanghua Jin, Jiakai Zhang, Minjun Li, Yingtao Tian, Huachun Zhu, Zhihao Fang, "Towards the Automatic Anime Characters Creation with Generative Adversarial Networks" eprint arXiv, https://arxiv.org/abs/1708.05509Yanghua Jin, Jiakai Zhang, Minjun Li, Yingtao Tian, Huachun Zhu, Zhihao Fang, "Towards the Automatic Anime Characters Creation with Generative Adversarial Networks" eprint arXiv, https://arxiv.org/abs/1708.05509

しかしながら上記非特許文献2に開示された技術では、抽象的なパラメータが画像自動生成の入力値として用いられるため、ユーザが所望する画像を自動生成するにはユーザに対して多数の試行が必要となり、ユーザにとって負担が大きい。 However, in the technique disclosed in Non-Patent Document 2, since abstract parameters are used as input values for automatic image generation, a large number of trials are required for the user to automatically generate an image desired by the user. , a heavy burden on the user.

本発明は、このような問題を鑑みてなされたものであり、ユーザの所望するような画像を直感的な操作によって得ることができる画像表示システム及びプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image display system and a program that enable a user to obtain an image desired by an intuitive operation.

本発明によれば、基準画像を表示面に表示させる第一表示制御部と、前記基準画像とは異なる画像情報をそれぞれ有する複数の候補画像を、前記表示面の前記基準画像の表示領域の周辺において、選択可能に表示させる第二表示制御部と、を備え、前記複数の候補画像の各々の画像データは、前記基準画像の画像データに基づいて決定される、所定空間上の探索領域に含まれる、画像表示システムが提供される。 According to the present invention, the first display control unit displays a reference image on a display surface, and a plurality of candidate images each having image information different from that of the reference image are displayed around the display area of the reference image on the display surface. and a second display control unit for selectably displaying, wherein image data of each of the plurality of candidate images is included in a search area in a predetermined space determined based on image data of the reference image. An image display system is provided.

また、本発明によれば、コンピュータを、基準画像を表示面に表示させる第一表示制御手段と、前記基準画像とは異なる画像情報をそれぞれ有する複数の候補画像を、前記表示面の前記基準画像の表示領域の周辺において、選択可能に表示させる第二表示制御手段と、として機能させ、前記複数の候補画像の各々の画像データは、前記基準画像の画像データに基づいて決定される、所定空間上の探索領域に含まれる、プログラムが提供される。 Further, according to the present invention, the computer is configured to display a reference image on the display surface; second display control means for selectably displaying in the vicinity of the display area of the predetermined space, wherein the image data of each of the plurality of candidate images is determined based on the image data of the reference image; A program is provided, contained in the search area above.

その他本願が開示する課題やその解決方法については、発明の実施形態の欄及び図面により明らかにされる。 Other problems disclosed by the present application and solutions thereof will be clarified by the section of the embodiment of the invention and the drawings.

本発明によれば、ユーザの所望するような画像を直感的な操作によって得ることができる。 According to the present invention, an image desired by the user can be obtained by an intuitive operation.

本発明の一実施形態に係る画像表示システムの全体構成例を示す図である。1 is a diagram showing an overall configuration example of an image display system according to an embodiment of the present invention; FIG. 同実施形態に係る画像処理サーバのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the image processing server which concerns on the same embodiment. 同実施形態に係るユーザ端末のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the user terminal which concerns on the same embodiment. 同実施形態に係る制御部の機能構成例を示す図である。It is a figure which shows the functional structural example of the control part which concerns on the same embodiment. 同実施形態に係る第一表示制御部による表示制御の一例を示す図である。It is a figure which shows an example of display control by the 1st display control part which concerns on the same embodiment. 同実施形態に係る所定空間および探索領域の一例を示す図である。It is a figure which shows an example of the predetermined space and search area which concern on the same embodiment. 同実施形態に係る領域設定部による領域設定処理の一例を示す図である。It is a figure which shows an example of the area|region setting process by the area|region setting part which concerns on the same embodiment. 同実施形態に係る第二表示制御部による表示制御の一例を示す図である。It is a figure which shows an example of display control by the 2nd display control part which concerns on the same embodiment. 同実施形態に係る操作取得部による取得処理の一例を示す図である。It is a figure which shows an example of the acquisition process by the operation acquisition part which concerns on the same embodiment. 同実施形態に係る所定空間および探索領域の一例を示す図である。It is a figure which shows an example of the predetermined space and search area which concern on the same embodiment. 同実施形態に係る第一表示制御部による表示制御処理の一例を示す図である。It is a figure which shows an example of the display control process by the 1st display control part which concerns on the same embodiment. 同実施形態に係る所定空間および探索領域の一例を示す図である。It is a figure which shows an example of the predetermined space and search area which concern on the same embodiment. 同実施形態に係る調整部による調整処理の一例を示す図である。It is a figure which shows an example of the adjustment process by the adjustment part which concerns on the same embodiment. 同実施形態に係る調整部による選択対象集団の調整に係る処理の一例を示す図である。FIG. 10 is a diagram showing an example of processing related to adjustment of a selection target group by an adjustment unit according to the embodiment; 同実施形態に係る調整部による選択対象集団の調整に係る処理の一例を示す図である。FIG. 10 is a diagram showing an example of processing related to adjustment of a selection target group by an adjustment unit according to the embodiment; 同実施形態の変形例に係る領域設定部による探索領域の設定処理の一例を示す図である。FIG. 11 is a diagram showing an example of search area setting processing by an area setting unit according to a modification of the embodiment; 同実施形態の変形例に係る領域設定部による探索領域の設定処理の一例を示す図である。FIG. 11 is a diagram showing an example of search area setting processing by an area setting unit according to a modification of the embodiment; 同実施形態の変形例に係る領域設定部による探索領域の設定処理の一例を示す図である。FIG. 11 is a diagram showing an example of search area setting processing by an area setting unit according to a modification of the embodiment; 同実施形態の画像表示システムにより実行される処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process performed by the image display system of the same embodiment.

本発明の実施形態の内容を列記して説明する。本発明の一実施形態による画像処理装置及びプログラムは、以下のような構成を備える。 The contents of the embodiments of the present invention are listed and explained. An image processing apparatus and program according to an embodiment of the present invention have the following configurations.

[項目1]
基準画像を表示面に表示させる第一表示制御部と、
前記基準画像とは異なる画像情報をそれぞれ有する複数の候補画像を、前記表示面の前記基準画像の表示領域の周辺において、選択可能に表示させる第二表示制御部と、
を備え、
前記複数の候補画像の各々の画像データは、前記基準画像の画像データに基づいて決定される、所定空間上の探索領域に含まれる、画像表示システム。
[項目2]
前記第一表示制御部は、前記表示面に表示された前記複数の候補画像のうち一の画像に対する選択が入力された場合に、選択された前記一の画像を前記基準画像として表示させる、項目1に記載の画像表示システム。
[項目3]
前記第一表示制御部は、選択された前記一の画像を、前記基準画像が表示されていた領域に前記基準画像として表示させる、項目2に記載の画像表示システム。
[項目4]
前記複数の候補画像のうち一の画像に対する選択の入力は、前記一の画像の前記基準画像が表示されている領域に向かう前記表示面上での操作体の移動に基づく入力である、項目3に記載の画像表示システム。
[項目5]
前記探索領域は、前記基準画像の画像データと、先に前記基準画像として選択された画像の画像データとの距離に基づいて設定される、項目1~4のいずれか一項に記載の画像表示システム。
[項目6]
前記探索領域は、前記基準画像の画像データと、先に前記基準画像として選択された複数の画像の画像データとの距離に基づいて設定される、項目5に記載の画像表示システム。
[項目7]
前記探索領域は、先に前記基準画像として選択された複数の画像の画像データの、前記所定空間上における分布に基づいて設定される、項目1~6のいずれか一項に記載の画像表示システム。
[項目8]
前記探索領域は、先に前記基準画像として選択された複数の画像の画像データの、前記所定の空間上における推移に基づいて設定される、項目7に記載の画像表示システム。
[項目9]
前記探索領域は、前記表示面に表示される前記所定空間上における画像群の画像データのマッピング画面に対する操作に基づいて設定される、項目1~8のいずれか一項に記載の画像表示システム。
[項目10]
前記所定空間は、前記画像の画像データの座標空間を次元削減処理または次元数の調整処理をして得られる空間である、項目1~9のいずれか一項に記載の画像表示システム。
[項目11]
前記画像データは、前記画像をベクトル化処理して得られる、項目1~10のいずれか一項に記載の画像表示システム。
[項目12]
前記第二表示制御部は、前記基準画像と前記複数の候補画像の各々との前記所定空間上の距離に基づいて、前記複数の候補画像の各々の前記表示面上における表示態様を制御する、項目1~11のいずれか一項に記載の画像表示システム。
[項目13]
前記第二表示制御部は、前記基準画像と前記複数の候補画像の各々との前記所定の空間上の距離に基づいて、前記複数の候補画像の各々の前記表示面上の表示位置を決定する、項目12に記載の画像表示システム。
[項目14]
前記第二表示制御部は、前記基準画像と前記複数の候補画像の各々との前記所定の空間上の距離に基づいて、前記複数の候補画像の各々と前記基準画像との前記表示面における距離を決定する、項目13に記載の画像表示システム。
[項目15]
前記第二表示制御部は、前記基準画像と前記複数の候補画像の各々との前記所定の空間上の距離に基づいて、前記複数の候補画像の各々の前記表示面上の表示サイズを制御する、項目12~14のいずれか一項に記載の画像表示システム。
[項目16]
前記第二表示制御部は、前記探索領域のうち、前記画像表示システムの処理状況に応じて設定されるサイズを有する選択対象集団から選択された前記候補画像を表示する、項目1~15のいずれか一項に記載の画像表示システム。
[項目17]
前記画像表示システムの処理が進行するにつれて、前記探索領域に対する前記選択対象集団のサイズを大きく、または小さくする、項目16に記載の画像表示システム。
[項目18]
前記第二表示制御部は、前記表示面に表示される、前記探索領域のサイズを変更する領域変更オブジェクトに対する入力に基づく新たな探索領域に含まれる画像データを有する前記複数の候補画像を表示する、項目1~17のいずれか一項に記載の画像表示システム。
[項目19]
コンピュータを、
基準画像を表示面に表示させる第一表示制御手段と、
前記基準画像とは異なる画像情報をそれぞれ有する複数の候補画像を、前記表示面の前記基準画像の表示領域の周辺において、選択可能に表示させる第二表示制御手段と、
として機能させ、
前記複数の候補画像の各々の画像データは、前記基準画像の画像データに基づいて決定される、所定空間上の探索領域に含まれる、プログラム。
[Item 1]
a first display control unit for displaying a reference image on a display surface;
a second display control unit for selectively displaying a plurality of candidate images each having image information different from that of the reference image around a display area of the reference image on the display surface;
with
The image display system, wherein the image data of each of the plurality of candidate images is included in a search area on a predetermined space determined based on the image data of the reference image.
[Item 2]
The first display control unit, when a selection of one of the plurality of candidate images displayed on the display surface is input, causes the selected one image to be displayed as the reference image. 2. The image display system according to 1.
[Item 3]
3. The image display system according to item 2, wherein the first display control unit displays the selected one image as the reference image in a region where the reference image was displayed.
[Item 4]
Item 3, wherein the selection input for one of the plurality of candidate images is an input based on movement of the operating body on the display surface toward an area in which the reference image of the one image is displayed. The image display system described in .
[Item 5]
5. The image display according to any one of items 1 to 4, wherein the search area is set based on a distance between image data of the reference image and image data of an image previously selected as the reference image. system.
[Item 6]
6. The image display system according to item 5, wherein the search area is set based on a distance between image data of the reference image and image data of a plurality of images previously selected as the reference image.
[Item 7]
7. The image display system according to any one of items 1 to 6, wherein the search area is set based on a distribution in the predetermined space of image data of a plurality of images previously selected as the reference image. .
[Item 8]
8. The image display system according to item 7, wherein the search area is set based on the transition in the predetermined space of the image data of the plurality of images previously selected as the reference image.
[Item 9]
9. The image display system according to any one of items 1 to 8, wherein the search area is set based on an operation on a mapping screen of image data of an image group in the predetermined space displayed on the display surface.
[Item 10]
10. The image display system according to any one of items 1 to 9, wherein the predetermined space is a space obtained by subjecting the coordinate space of the image data of the image to dimension reduction processing or dimension number adjustment processing.
[Item 11]
11. The image display system according to any one of items 1 to 10, wherein the image data is obtained by vectorizing the image.
[Item 12]
The second display control unit controls the display mode of each of the plurality of candidate images on the display surface based on the distance in the predetermined space between the reference image and each of the plurality of candidate images. The image display system according to any one of items 1-11.
[Item 13]
The second display control unit determines a display position of each of the plurality of candidate images on the display surface based on the predetermined spatial distance between the reference image and each of the plurality of candidate images. 13. The image display system according to item 12.
[Item 14]
The second display control unit controls the distance between each of the plurality of candidate images and the reference image on the display surface based on the predetermined spatial distance between the reference image and each of the plurality of candidate images. 14. The image display system according to item 13, wherein the image display system determines:
[Item 15]
The second display control unit controls the display size of each of the plurality of candidate images on the display surface based on the predetermined spatial distance between the reference image and each of the plurality of candidate images. , the image display system according to any one of items 12 to 14.
[Item 16]
Any one of items 1 to 15, wherein the second display control unit displays the candidate image selected from the selection target group having a size set according to the processing status of the image display system in the search area. 1. The image display system according to claim 1.
[Item 17]
17. The image display system of item 16, wherein the size of the selection population relative to the search area increases or decreases as the image display system progresses.
[Item 18]
The second display control unit displays the plurality of candidate images having image data included in a new search area based on an input to an area change object for changing the size of the search area displayed on the display surface. , the image display system according to any one of items 1 to 17.
[Item 19]
the computer,
a first display control means for displaying a reference image on a display surface;
a second display control means for selectively displaying a plurality of candidate images each having image information different from that of the reference image around the display area of the reference image on the display surface;
function as
The program according to claim 1, wherein image data of each of the plurality of candidate images is included in a search area on a predetermined space determined based on image data of the reference image.

以下、添付図面を参照しながら本発明の一実施形態について説明する。 An embodiment of the present invention will be described below with reference to the accompanying drawings.

図1は、本発明の一実施形態に係る画像表示システムの全体構成例を示す図である。本実施形態の画像表示システム1は、画像処理サーバ10を含んで構成される。画像処理サーバ10は、一又は複数のユーザ端末20と通信ネットワークNWを介して通信可能に接続される。通信ネットワークNWは、たとえばインターネットであり、公衆電話回線網や携帯電話回線網、無線通信路、イーサネット(登録商標)などにより構築される。 FIG. 1 is a diagram showing an example of the overall configuration of an image display system according to one embodiment of the present invention. The image display system 1 of this embodiment includes an image processing server 10 . The image processing server 10 is communicably connected to one or more user terminals 20 via a communication network NW. The communication network NW is, for example, the Internet, and is constructed by a public telephone line network, a mobile telephone line network, a wireless communication path, Ethernet (registered trademark), and the like.

本実施形態の画像表示システム1は、一又は複数のユーザに対して、ユーザの操作に応じて選択される画像に基づいてユーザの所望する画像を自動的に生成するサービスを提供しようとするものである。本実施形態の画像表示システム1は、たとえば、画像処理サーバ10が複数の画像をユーザ端末20に送信し、ユーザがユーザ端末20を操作して複数の画像から少なくとも一の画像を選択し、画像処理サーバ10がかかる選択に基づき少なくとも一の画像を自動生成する。画像処理サーバ10は自動生成した画像をユーザ端末20に送信して、ユーザが再度ユーザ端末20に対して操作を行い一の画像を選択する。このような処理を繰り返すことにより、ユーザは自己の所望するような画像を直感的に選択し続けるだけで、ユーザが最も自己の指向と合う画像を得ることが可能となる。なお、画像表示システム1は、予め準備または生成された画像を所定のストレージ等に格納しておき、ユーザの操作に応じてユーザのリクエストに近い画像をユーザに提示するサービスを提供するものであってもよい。このような場合であれば、例えば、画像処理サーバ10にかかる計算コストを削減したり、レイテンシを削減することができる。 The image display system 1 of the present embodiment is intended to provide one or more users with a service of automatically generating an image desired by the user based on an image selected according to the user's operation. is. In the image display system 1 of the present embodiment, for example, the image processing server 10 transmits a plurality of images to the user terminal 20, the user operates the user terminal 20 to select at least one image from the plurality of images, and the image Processing server 10 automatically generates at least one image based on such selection. The image processing server 10 transmits automatically generated images to the user terminal 20, and the user operates the user terminal 20 again to select one image. By repeating such processing, the user can obtain an image that best matches his or her orientation by simply continuing to intuitively select an image that the user desires. Note that the image display system 1 stores images prepared or generated in advance in a predetermined storage or the like, and provides a service of presenting an image close to the user's request to the user according to the user's operation. may In such a case, for example, it is possible to reduce the calculation cost of the image processing server 10 and reduce the latency.

画像処理サーバ10は、ユーザ端末20に対するユーザの操作に応じて選択される画像に基づいてユーザの所望する画像を自動的に生成する処理を行うためのコンピュータである。画像処理サーバ10は、たとえば、パーソナルコンピュータ、ワークステーション、またはクラウドコンピューティングによる仮想的なコンピュータであってもよい。画像処理サーバ10は、いわゆるWebアプリケーションとしてこれらの機能を実行することを想定する。なお、図1において、画像処理サーバ10は単一のサーバとして図示しているが、これに限らず、画像表示システム1は、画像処理サーバ10を含む複数の画像処理サーバを有し、分散処理によって本システムにおける処理を実行することができる。また、ここで、分散処理を行う画像処理サーバの台数の増減を、各処理の負荷及び/または各処理を行う対象となる画像のサイズや数に応じて動的に変更することもできる。また、画像処理サーバ10は、オンラインで画像データを処理しても良い。 The image processing server 10 is a computer for automatically generating an image desired by the user based on an image selected according to the user's operation on the user terminal 20 . The image processing server 10 may be, for example, a personal computer, a workstation, or a virtual computer by cloud computing. The image processing server 10 is assumed to execute these functions as a so-called web application. Although the image processing server 10 is illustrated as a single server in FIG. can execute processing in this system. Also, here, the increase or decrease in the number of image processing servers that perform distributed processing can be dynamically changed according to the load of each processing and/or the size and number of images to be processed. Also, the image processing server 10 may process image data online.

ユーザ端末20は、携帯電話、スマートフォン、ゲーム機、タブレットコンピュータ、パーソナルコンピュータなどの端末機器である。 The user terminal 20 is terminal equipment such as a mobile phone, a smart phone, a game machine, a tablet computer, or a personal computer.

ユーザ端末20は、表示部26に表示された画像のうちユーザが選択した画像に関する情報を画像処理サーバ10に送信し、送信した情報を基に生成された画像を画像処理サーバ10から受信する。ユーザ端末20には、例えば、本実施形態に係る画像表示システム1に対応するアプリケーションソフトやWebブラウザ等がインストールされていてもよい。 The user terminal 20 transmits to the image processing server 10 information about the image selected by the user from among the images displayed on the display unit 26, and receives from the image processing server 10 an image generated based on the transmitted information. For example, the user terminal 20 may be installed with application software, a web browser, etc. corresponding to the image display system 1 according to the present embodiment.

図2は、本実施形態に係る画像処理サーバ10のハードウェア構成例を示す図である。画像処理サーバ10は、少なくとも、制御部11、メモリ12、ストレージ13、送受信部14、入出力部15、画像制御部16、画像用メモリ17等を備え、これらはバス18を通じて相互に電気的に接続される。 FIG. 2 is a diagram showing a hardware configuration example of the image processing server 10 according to this embodiment. The image processing server 10 includes at least a control unit 11, a memory 12, a storage 13, a transmission/reception unit 14, an input/output unit 15, an image control unit 16, an image memory 17, and the like. Connected.

制御部11は、画像処理サーバ1全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。制御部11は、例えばCPU(Central Processing Unit)であり、ストレージ13に格納されメモリ11に展開されたプログラム等を実行して各情報処理を実施する。また、制御部11は、後述する候補画像の探索範囲を制御する機能を有する。 The control unit 11 is an arithmetic unit that controls the overall operation of the image processing server 1, controls transmission and reception of data between elements, executes applications, and performs information processing necessary for authentication processing. The control unit 11 is, for example, a CPU (Central Processing Unit), and executes a program or the like stored in the storage 13 and developed in the memory 11 to carry out each information process. The control unit 11 also has a function of controlling a search range for candidate images, which will be described later.

メモリ12は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリやHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ12は、制御部11のワークエリア等として使用され、また、画像処理サーバ10の起動時に実行されるBIOS(Basic Input/Output System)、及び各種設定情報等を格納する。 The memory 12 includes a main memory composed of a volatile memory device such as a DRAM (Dynamic Random Access Memory), and an auxiliary memory composed of a non-volatile memory device such as a flash memory or a HDD (Hard Disc Drive). . The memory 12 is used as a work area or the like for the control unit 11, and stores a BIOS (Basic Input/Output System) executed when the image processing server 10 is started, various setting information, and the like.

ストレージ13は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベース(図示せず)がストレージ13に構築されていてもよい。 The storage 13 stores various programs such as application programs. A database (not shown) storing data used for each process may be constructed in the storage 13 .

送受信部14は、画像処理サーバ10を通信ネットワークNWに接続する。なお、送受信部14は、Bluetooth(登録商標)やWi-Fi(登録商標)などの近距離通信インタフェースを備えていてもよい。送受信部14は、例えば、ユーザ端末20から選択された画像に関する情報を受信したり、画像処理サーバ10で自動生成した画像データをユーザ端末20に送信したりする。入出力部15は、キーボードやマウス類、コントローラ等の情報入力機器、及びディスプレイ等の出力機器である。 The transmission/reception unit 14 connects the image processing server 10 to the communication network NW. The transmitting/receiving unit 14 may include a short-range communication interface such as Bluetooth (registered trademark) or Wi-Fi (registered trademark). The transmission/reception unit 14 receives, for example, information about an image selected from the user terminal 20 and transmits image data automatically generated by the image processing server 10 to the user terminal 20 . The input/output unit 15 is information input equipment such as a keyboard, mouse, controller, etc., and output equipment such as a display.

画像制御部16は、画像を自動生成する処理を行う機能を有する。画像制御部16は、例えば、GPU(Graphics Processing Unit)であり、ホストであるCPUからの命令を多数のコアにより同時に並列処理を行うことができる。また、画像制御部16は、アクセラレーターや、アクセラレータークラスタにより同時に並列処理を行ってもよい。アクセラレーターとしては、例えば、CPU、GPU、FPGA、ASIC、独自定義のニューラルネットワーク専用演算コア、推論専用の光を用いた演算装置などが挙げられ、これらに限定されない。画像の自動生成処理は、例えば、ボルツマンマシン、Encoder-Decoder、GAN、VAE(Variational Autoencoder)、StyleTransfer等の公知の機械学習のアルゴリズムが用いられる。 The image control unit 16 has a function of automatically generating an image. The image control unit 16 is, for example, a GPU (Graphics Processing Unit), and can simultaneously perform parallel processing of instructions from a host CPU using a large number of cores. Also, the image control unit 16 may simultaneously perform parallel processing using an accelerator or an accelerator cluster. Examples of accelerators include, but are not limited to, CPUs, GPUs, FPGAs, ASICs, uniquely defined neural network-dedicated computing cores, inference-dedicated optical computing devices, and the like. For automatic image generation processing, known machine learning algorithms such as Boltzmann machine, Encoder-Decoder, GAN, VAE (Variational Autoencoder), and StyleTransfer are used.

画像用メモリ17は、自動生成された画像データを格納するために用いられる。画像用メモリ17は、例えば、VRAM(Video Random Access Memory)である。バス18は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。 The image memory 17 is used to store automatically generated image data. The image memory 17 is, for example, a VRAM (Video Random Access Memory). A bus 18 is commonly connected to the above elements and transmits, for example, address signals, data signals and various control signals.

図3は、本実施形態に係るユーザ端末20のハードウェア構成例を示す図である。ユーザ端末20は、少なくとも、制御部21、メモリ22、ストレージ23、送受信部24、入出力部25、および表示部26等を備え、これらはバス27を通じて相互に電気的に接続される。制御部21、メモリ22、ストレージ23、送受信部24および入出力部25の各構成要素は上述した画像処理サーバ10の有する各構成要素のハードウェアとしての機能は同一であるため説明を省略する。 FIG. 3 is a diagram showing a hardware configuration example of the user terminal 20 according to this embodiment. The user terminal 20 includes at least a control unit 21 , a memory 22 , a storage 23 , a transmission/reception unit 24 , an input/output unit 25 , a display unit 26 and the like, which are electrically connected to each other through a bus 27 . Components of the control unit 21, the memory 22, the storage 23, the transmission/reception unit 24, and the input/output unit 25 have the same hardware functions as those of the components of the image processing server 10 described above, so description thereof will be omitted.

表示部26は、各種情報を表示する機能を有する。表示部26は、例えば、ディスプレイ等により実現されてもよい。また、表示部26は、タッチパネルなど、入出力部25と機能が一体となって実現されるものであってもよい。本実施形態では、表示部26はタッチパネル(すなわちユーザの操作を受け付ける機能を有するもの)により実現されているものとして説明する。 The display unit 26 has a function of displaying various information. The display unit 26 may be implemented by, for example, a display. Further, the display unit 26 may be realized by integrating the functions of the input/output unit 25, such as a touch panel. In this embodiment, the display unit 26 is described as being realized by a touch panel (that is, having a function of accepting user operations).

図4は、本実施形態に係る制御部11の機能構成例を示す図である。制御部11は、画像取得部101、第一表示制御部102、領域設定部103、第二表示制御部104、操作取得部105、調整部106を備える。 FIG. 4 is a diagram showing a functional configuration example of the control unit 11 according to this embodiment. The control unit 11 includes an image acquisition unit 101 , a first display control unit 102 , an area setting unit 103 , a second display control unit 104 , an operation acquisition unit 105 and an adjustment unit 106 .

なお、画像取得部101、第一表示制御部102、領域設定部103、第二表示制御部104、操作取得部105、調整部106は、画像処理サーバ10が備える制御部11又は画像制御部16がストレージ13に記憶されているプログラムをメモリ12または画像メモリ17に読み出して実行することにより実現される。また、各部で実行される処理について、その処理負荷やハードウェアリソースに応じて、画像処理サーバ10内の複数の装置、及び/または、他のサーバで並列処理を行うこともできる。 Note that the image acquisition unit 101, the first display control unit 102, the area setting unit 103, the second display control unit 104, the operation acquisition unit 105, and the adjustment unit 106 are the control unit 11 or the image control unit 16 provided in the image processing server 10. is implemented by reading a program stored in the storage 13 into the memory 12 or the image memory 17 and executing it. Also, the processing executed by each unit can be processed in parallel by a plurality of devices in the image processing server 10 and/or other servers depending on the processing load and hardware resources.

画像取得部101は、画像データを取得する機能を有する。例えば、画像取得部101は、予めストレージ13に格納されている画像データや、画像制御部16により自動生成された画像データ(画像メモリ17に記憶されていてもよい)を取得する。また、画像取得部101は、ユーザ端末20等、外部ハードウェアから入出力部15等を通して画像データを取得してもよい。なお、ここでいう画像データは、画像そのものを規定するデータに限らず、例えば、事前に画像データを圧縮したり特徴量を抽出したりして得られる、画像を規定するデータであってもよい。 The image acquisition unit 101 has a function of acquiring image data. For example, the image acquisition unit 101 acquires image data stored in advance in the storage 13 or image data automatically generated by the image control unit 16 (which may be stored in the image memory 17). Further, the image acquisition unit 101 may acquire image data from external hardware such as the user terminal 20 through the input/output unit 15 or the like. Note that the image data referred to here is not limited to data that defines the image itself, and may be data that defines the image obtained by, for example, compressing the image data in advance or extracting the feature amount. .

第一表示制御部102は、基準画像を表示面に表示させる機能を有する。本実施形態に係る基準画像とは、画像制御部16による画像の自動生成処理の入力パラメータとなる画像データを有する画像を意味する。かかる基準画像は、ユーザ端末20の表示部26の表示面に表示される。 The first display control unit 102 has a function of displaying the reference image on the display surface. A reference image according to the present embodiment means an image having image data that is an input parameter for automatic image generation processing by the image control unit 16 . Such a reference image is displayed on the display surface of the display unit 26 of the user terminal 20. FIG.

図5は、本実施形態に係る第一表示制御部102による表示制御の一例を示す図である。図示するように、ユーザ端末20の表示面26aには、Webアプリケーションの画面200が表示されている。画面200の中央部分には基準画像201が表示されている。基準画像201の周囲においては、一群の候補画像202a~202nが表示されている。ここで候補画像とは、基準画像201を基に自動生成された画像のうち、後述する所定空間上の探索領域内に存在する一部または全部の画像である。所定空間とは、例えば、画像データを規定する多次元のベクトル空間を意味する。 FIG. 5 is a diagram showing an example of display control by the first display control unit 102 according to this embodiment. As illustrated, a screen 200 of a web application is displayed on the display surface 26 a of the user terminal 20 . A reference image 201 is displayed in the central portion of the screen 200 . Around the reference image 201, a group of candidate images 202a-202n are displayed. Here, the candidate image is a part or all of the images that are automatically generated based on the reference image 201 and that exist within a search area on a predetermined space, which will be described later. Predetermined space means, for example, a multi-dimensional vector space that defines image data.

また、画面200には、過去に基準画像として選択された画像のサムネイル203a~203cが時系列順となるように並べて表示されている。また、サムネイル203cに隣接して、現在の基準画像201のサムネイル204が表示されている。また、画面200の上部には、後述する探索領域のサイズを調整するためのスライダーバー205が表示されている。なお、スライダーバー205は画面200には必ずしも表示されなくてもよい。 Also, on the screen 200, thumbnails 203a to 203c of images selected as reference images in the past are displayed in chronological order. Also, a thumbnail 204 of the current reference image 201 is displayed adjacent to the thumbnail 203c. Also, a slider bar 205 for adjusting the size of the search area, which will be described later, is displayed at the top of the screen 200 . Note that the slider bar 205 does not necessarily have to be displayed on the screen 200 .

領域設定部103は、探索領域を設定する機能を有する。探索領域とは、所定空間上における候補画像の取得対象領域を意味する。画像取得部101は、領域設定部103により設定された探索領域に含まれる候補画像の画像データを取得する。 The area setting unit 103 has a function of setting a search area. A search area means an acquisition target area of a candidate image in a predetermined space. The image acquisition unit 101 acquires image data of candidate images included in the search area set by the area setting unit 103 .

図6は、本実施形態に係る所定空間および探索領域の一例を示す図である。図6に示すように、所定空間500において、予め生成されているか、または画像制御部16により生成された画像群の画像データが模式的にマッピングされている。この画面をマッピング画面と称する。かかる所定空間500の次元数は特に限定されないが、説明のため、図6~図8においては二次元的に所定空間500を表現する。以下の説明においても、所定空間500を二次元的に表現する。 FIG. 6 is a diagram showing an example of the predetermined space and search area according to this embodiment. As shown in FIG. 6, in a predetermined space 500, image data of an image group generated in advance or generated by the image control unit 16 is schematically mapped. This screen is called a mapping screen. Although the number of dimensions of the predetermined space 500 is not particularly limited, the predetermined space 500 is represented two-dimensionally in FIGS. 6 to 8 for the purpose of explanation. Also in the following description, the predetermined space 500 is represented two-dimensionally.

図7は、本実施形態に係る領域設定部103による領域設定処理の一例を示す図である。図7に示すように、領域設定部103は、基準画像の画像データ501の座標を中心として、距離がR1以内となる領域を探索領域502として設定する。ここで設定される探索領域502に含まれる画像は、互いの画像データの類似度が高く、基準画像と比較的類似している可能性の高い画像である。また、ここでいう距離とは、例えば、ユークリッド距離、マンハッタン距離、マハラノビス汎距離、Earth Mover Distance、カルバック・ライブラー情報量等、多次元空間において規定される距離であり、その種類は特に限定されない。 FIG. 7 is a diagram showing an example of area setting processing by the area setting unit 103 according to this embodiment. As shown in FIG. 7, the region setting unit 103 sets a region within a distance R1 from the coordinates of the image data 501 of the reference image as the search region 502 . The images included in the search area 502 set here have a high degree of similarity in their image data, and are images that are likely to be relatively similar to the reference image. In addition, the distance here is, for example, Euclidean distance, Manhattan distance, Mahalanobis generalized distance, Earth Mover distance, Kullback-Leibler information amount, etc., which is defined in a multidimensional space, and the type is not particularly limited. .

第二表示制御部104は、探索領域502に含まれる候補画像を表示する機能を有する。例えば、画像取得部101は、図7に示す探索領域502に含まれる画像のうち一以上の画像を候補画像として取得し、第二表示制御部104が、取得された候補画像をユーザ端末20の表示面26aに表示する。このとき第二表示制御部104は、表示面において、基準画像の表示領域の周辺において、選択可能に表示させる。 The second display control unit 104 has a function of displaying candidate images included in the search area 502 . For example, the image acquisition unit 101 acquires, as candidate images, one or more images included in the search area 502 shown in FIG. It is displayed on the display surface 26a. At this time, the second display control unit 104 displays the reference image in a selectable manner around the display area of the reference image on the display surface.

図8は、本実施形態に係る第二表示制御部104による表示制御の一例を示す図である。図示するように、画面200において、基準画像201の周囲に、候補画像202a~202nが表示されている。かかる候補画像202a~202nは、ユーザの操作に対して選択可能に表示され得る。 FIG. 8 is a diagram showing an example of display control by the second display control unit 104 according to this embodiment. As illustrated, candidate images 202a to 202n are displayed around a reference image 201 on a screen 200. FIG. Such candidate images 202a to 202n can be displayed so as to be selectable by user's operation.

これらの候補画像202a~202nの表示態様は特に限定されない。例えば、第二表示制御部104は、基準画像201と候補画像202の各々との所定空間上での距離に基づいて、候補画像202の表示態様を制御してもよい。 The display mode of these candidate images 202a to 202n is not particularly limited. For example, the second display control unit 104 may control the display mode of the candidate image 202 based on the distance between the reference image 201 and each of the candidate images 202 in a predetermined space.

ここでいう表示態様は、例えば表示位置であってもよい。具体的には、第二表示制御部104は、基準画像201と候補画像202の各々との所定空間上における距離の長短にあわせて、候補画像202と基準画像201との画面200上での位置を決定してもよい。つまり、第二表示制御部104は、基準画像201と候補画像202との距離が遠ければ、画面200上において候補画像202を基準画像201から離れた位置に表示させ、基準画像201と候補画像202との距離が近ければ、画面200上において候補画像202を基準画像201に近い位置に表示させてもよい。これにより、基準画像201と候補画像202との類似度を画面200を見るだけでユーザが直感的に把握することができる。 The display mode referred to here may be, for example, the display position. Specifically, the second display control unit 104 adjusts the positions of the candidate image 202 and the reference image 201 on the screen 200 according to the distance between the reference image 201 and the candidate image 202 in the predetermined space. may be determined. That is, if the distance between the reference image 201 and the candidate image 202 is long, the second display control unit 104 displays the candidate image 202 at a position away from the reference image 201 on the screen 200, and the reference image 201 and the candidate image 202 are displayed. If the distance to is short, the candidate image 202 may be displayed on the screen 200 at a position close to the reference image 201 . Accordingly, the user can intuitively grasp the degree of similarity between the reference image 201 and the candidate image 202 simply by looking at the screen 200 .

また表示態様は、例えば、画面200上の大きさであってもよい。図8に示すように、例えば、第二表示制御部104は、基準画像201と候補画像202の各々との所定空間上における距離の長短にあわせて、候補画像202の表示サイズの大小を制御してもよい。具体的には、第二表示制御部104は、基準画像201と候補画像202の各々との所定空間上における距離が短ければ候補画像202の表示サイズを大きくし、該距離が長ければ候補画像202の表示サイズを小さくしてもよい。これにより、基準画像201と候補画像202との類似度を画面200を見るだけでユーザが直感的に把握することができる。 Also, the display mode may be the size on the screen 200, for example. As shown in FIG. 8, for example, the second display control unit 104 controls the display size of the candidate image 202 according to the distance between the reference image 201 and the candidate image 202 in a predetermined space. may Specifically, the second display control unit 104 increases the display size of the candidate image 202 if the distance between the reference image 201 and each of the candidate images 202 in the predetermined space is short, and increases the display size of the candidate image 202 if the distance is long. display size may be reduced. Accordingly, the user can intuitively grasp the degree of similarity between the reference image 201 and the candidate image 202 simply by looking at the screen 200 .

また、図8に示すように、候補画像202の表示態様は、表示位置および表示サイズの組み合わせにより調整されてもよい。また、図8に示す例では、候補画像202が基準画像201を中心としてグリッド状に整列されているが、例えば基準画像201を中心とする円弧上に候補画像202が整列されてもよいし、基準画像201と候補画像202の群の表示位置が分別された態様で候補画像202が表示されてもよい。 Also, as shown in FIG. 8, the display mode of the candidate image 202 may be adjusted by combining the display position and the display size. In the example shown in FIG. 8, the candidate images 202 are arranged in a grid with the reference image 201 at the center. The candidate images 202 may be displayed in a manner in which the display positions of the groups of the reference image 201 and the candidate images 202 are separated.

操作取得部105は、ユーザ端末20に対する操作に基づいて選択された候補画像202に係る情報を取得する機能を有する。例えば、ユーザ端末20の表示面26aに対するユーザの操作により候補画像202が選択されると、ユーザ端末20は選択された候補画像202に関する情報を画像処理サーバ10に送信する。このとき、操作取得部105は、送受信部14を介して該情報を取得する。 The operation acquisition unit 105 has a function of acquiring information related to the candidate image 202 selected based on the operation on the user terminal 20 . For example, when the candidate image 202 is selected by the user's operation on the display surface 26 a of the user terminal 20 , the user terminal 20 transmits information regarding the selected candidate image 202 to the image processing server 10 . At this time, the operation acquisition unit 105 acquires the information via the transmission/reception unit 14 .

図9は、本実施形態に係る操作取得部105による取得処理の一例を示す図である。図示するように、ユーザの手等の操作体206により画面200に対して候補画像202mが選択されたとする。この場合、ユーザ端末20は、操作体206により選択された候補画像202mに係る情報を画像処理サーバ10に送信し、操作取得部105が該情報を取得する。 FIG. 9 is a diagram illustrating an example of acquisition processing by the operation acquisition unit 105 according to this embodiment. As illustrated, it is assumed that a candidate image 202m is selected on the screen 200 by an operating body 206 such as a user's hand. In this case, the user terminal 20 transmits information related to the candidate image 202m selected by the operating tool 206 to the image processing server 10, and the operation acquisition unit 105 acquires the information.

なお、操作取得部105は、画面200の候補画像202mが表示されている部分をタップまたはクリック等の操作によって特定された候補画像202mに係る情報を取得してもよいし、候補画像202mを基準画像201が表示されている領域に向かって操作体206を移動させる操作(例えば、スライドまたはフリック操作)によって、該情報を取得してもよい。これにより、候補画像202mを次の基準画像として選択する操作としてユーザにとって直感的となる。 Note that the operation acquisition unit 105 may acquire information related to the candidate image 202m specified by an operation such as tapping or clicking a portion of the screen 200 where the candidate image 202m is displayed, or may acquire information related to the candidate image 202m as a reference. The information may be acquired by an operation (for example, a slide or flick operation) of moving the operating body 206 toward the area where the image 201 is displayed. This makes it intuitive for the user to select the candidate image 202m as the next reference image.

図10は、本実施形態に係る所定空間および探索領域の一例を示す図である。図示するように、所定空間500において、操作取得部105が取得した情報に係る候補画像202mの画像データ503が特定される。このとき、かかる候補画像202mが次の基準画像201となる。画像取得部101は、候補画像202mを基準画像201として取得する。 FIG. 10 is a diagram showing an example of the predetermined space and search area according to this embodiment. As illustrated, in a predetermined space 500, image data 503 of a candidate image 202m related to information acquired by the operation acquisition unit 105 is identified. At this time, the candidate image 202m becomes the next reference image 201. FIG. The image acquisition unit 101 acquires the candidate image 202m as the reference image 201. FIG.

図11は、本実施形態に係る第一表示制御部102による表示制御処理の一例を示す図である。図示するように、第一表示制御部102は、図9において選択された候補画像202mを基準画像201として表示する。このとき、図11に示すように、先に基準画像201として表示されていた位置に、候補画像202mが新たな基準画像として表示される。これにより、新たな基準画像をベースとする次の処理を行うことができる。なお、第一表示制御部102は、新たに基準画像201として選択された候補画像のサムネイル206を、先の基準画像のサムネイル204に隣接して表示してもよい。 FIG. 11 is a diagram showing an example of display control processing by the first display control unit 102 according to this embodiment. As illustrated, the first display control unit 102 displays the candidate image 202m selected in FIG. 9 as the reference image 201. FIG. At this time, as shown in FIG. 11, the candidate image 202m is displayed as a new reference image at the position where the reference image 201 was previously displayed. As a result, the next processing based on the new reference image can be performed. Note that the first display control unit 102 may display the thumbnail 206 of the candidate image newly selected as the reference image 201 adjacent to the thumbnail 204 of the previous reference image.

図12は、本実施形態に係る所定空間および探索領域の一例を示す図である。図示するように、先の候補画像202mが新たな基準画像201として選択されると、領域設定部103は、新たな基準画像201の画像データ503の座標を中心として、距離がR2以内となる領域を探索領域504として設定する。次の処理においては、この探索領域504に含まれる画像データを有する画像が候補画像の対象となる。 FIG. 12 is a diagram showing an example of the predetermined space and search area according to this embodiment. As shown in the figure, when the previous candidate image 202m is selected as the new reference image 201, the area setting unit 103 sets the area within the distance R2 centering on the coordinates of the image data 503 of the new reference image 201. is set as the search area 504 . In the next process, images having image data included in this search area 504 are targeted as candidate images.

なお、探索範囲504の中心からの距離R2は、先の探索範囲502の中心からの距離R1と同じであってもよいし異なっていてもよい。例えば、距離R2は、距離R1よりも小さくてもよい。処理が進むに連れてユーザの所望する画像が生成されやすくなるので、該距離を小さくすることにより、より精度の高い候補画像が得られやすくなる。また、かかる距離の大きさは、処理の進行に応じて順次変更されてもよいし、図11に示したようなスライダーバー205により自在に選択されてもよい。このような探索範囲の設定方法の変形例については後述する。 Note that the distance R2 from the center of the search range 504 may be the same as or different from the distance R1 from the center of the previous search range 502 . For example, distance R2 may be less than distance R1. Since an image desired by the user is more likely to be generated as the process progresses, a candidate image with higher accuracy can be obtained more easily by reducing the distance. Also, the size of the distance may be changed in sequence according to the progress of the processing, or may be freely selected using a slider bar 205 as shown in FIG. A modification of such a search range setting method will be described later.

かかる機能部による処理を順次繰り返していくことで、ユーザが候補画像を選択し、かかる候補画像を新たな基準画像としてさらに候補画像が絞り込まれていく。このように、ユーザによる候補画像の選択を繰り返すだけで、ユーザの所望する画像を簡単に探索することが可能である。なお、図11等には図示されていないが、画面200には、ユーザによる選択が完了した場合(すなわち最後に基準画像として選択された画像がユーザの所望する画像である場合)に、画像の探索を終了するためのボタン等が表示されてもよい。 By sequentially repeating the processing by the functional unit, the user selects a candidate image, and the candidate image is further narrowed down using the candidate image as a new reference image. In this manner, the image desired by the user can be easily searched by simply repeating the selection of the candidate image by the user. Although not shown in FIG. 11 and the like, when the selection by the user is completed (that is, when the image last selected as the reference image is the image desired by the user), the image is displayed on the screen 200. A button or the like for ending the search may be displayed.

調整部106は、所定空間の次元や画像データの形式を調整する機能を有している。調整部106は、画像処理サーバ10においては任意に設けられる。画像データを規定する所定空間の次元がある程度の大きさを有する場合、候補画像の探索のための計算量が増大する。この場合、候補画像を表示するまでのレイテンシが大きくなるため、ユーザエクスペリエンス(User Experience;UX)が低下したり、かかる計算に必要なメモリやCPU等のスペックが増加してしまう。また、いわゆる「次元の呪い」により、画像データ間の距離と、これらの画像データに係る画像の実現値(画像の見た目、一般的に画像データ間の距離が短いと実現値が近くなる、すなわち似たような画像となる)との相関が保てない可能性がある。そのネガティブな可能性を回避するために、調整部106は所定空間の次元や画像データの形式を調整する機能を有する。 The adjusting unit 106 has a function of adjusting the dimension of the predetermined space and the format of the image data. The adjustment unit 106 is optionally provided in the image processing server 10 . When the dimensions of the predetermined space defining the image data have a certain size, the computational complexity for searching candidate images increases. In this case, the latency until the candidate images are displayed becomes large, so that the user experience (UX) deteriorates and the specs such as memory and CPU required for such calculations increase. Also, due to the so-called "curse of dimensionality", the distance between image data and the realization value of the image related to these image data (appearance of the image, in general, the shorter the distance between the image data, the closer the realization value, that is, similar images) may not be maintained. In order to avoid this negative possibility, the adjustment unit 106 has a function of adjusting the dimension of the predetermined space and the format of the image data.

例えば、調整部106は、画像データを規定する所定空間の次元を調整してもよい。次元の調整とは、例えば、ベクトルの次元数の調整や次元削減を意味する。図13は、本実施形態に係る調整部106による調整処理の一例を示す図である。図13を参照すると、調整部106による調整処理の前においては、画像データ511および画像データ512は、m次元の空間510において規定されており、画像データ521および画像データ522は、n次元の空間520において規定されている。ここで、画像データ511と画像データ521とは対応する画像の実現値を有し、画像データ512と画像データ522とは対応する画像の実現値を有し、互いの実現値は近く画像の見た目は類似していると感得できるものとする。また、次元数はm>nとする。 For example, the adjustment unit 106 may adjust the dimension of the predetermined space that defines the image data. Dimensional adjustment means, for example, adjusting the number of dimensions of a vector or reducing the number of dimensions. FIG. 13 is a diagram showing an example of adjustment processing by the adjustment unit 106 according to this embodiment. Referring to FIG. 13, before adjustment processing by adjustment unit 106, image data 511 and image data 512 are defined in m-dimensional space 510, and image data 521 and image data 522 are defined in n-dimensional space. 520. Here, the image data 511 and the image data 521 have corresponding image realization values, the image data 512 and the image data 522 have corresponding image realization values, and the mutual realization values are close to each other. are similar to each other. Also, the number of dimensions is set to m>n.

図13に示すように、m次元の空間510において画像データ511と画像データ512との距離は大きいため、実現値は近くても、解析上画像データ511と画像データ512とは類似していないと判定される可能性が高い。そこで、調整部106により適切な次元の空間(この場合n次元の空間520)となるように次元削減や次元調整にかかる処理を行うことで、画像データ512と画像データ522とのn次元の空間520を適切な距離に近づけることができる。これにより、候補画像の取得において、より適切な画像を取得することができる。次元削減や次元数調整の手法としては、例えば主成分分析、LDA(Linear Discriminant Analysis;線形判別分析)、t-SNE(t-distributed Stochastic Neighbor Embedding)等の手段を用いることができ、このような調整処理後の空間において、上述した処理を行うことができる。なお、かかる処理は画像生成処理にも適用でき、例えば、画像生成処理に用いられる学習モデルの学習時において、上記の処理を配慮して学習を行うことができる。 As shown in FIG. 13, the distance between the image data 511 and the image data 512 in the m-dimensional space 510 is large. likely to be judged. Therefore, the adjustment unit 106 performs processing related to dimensionality reduction and dimensional adjustment so as to obtain an appropriate dimensional space (in this case, an n-dimensional space 520), thereby obtaining an n-dimensional space between the image data 512 and the image data 522. 520 can be brought closer to the appropriate distance. As a result, it is possible to acquire a more appropriate image in acquiring the candidate image. As a technique for dimensionality reduction and dimensionality adjustment, for example, principal component analysis, LDA (Linear Discriminant Analysis), t-SNE (t-distributed Stochastic Neighbor Embedding), etc. can be used. The above-described processing can be performed in the space after the adjustment processing. Such processing can also be applied to image generation processing. For example, when learning a learning model used in image generation processing, the above processing can be considered in learning.

また、調整部106は、画像取得部101が取得する画像データについて、様々な手法においてベクトル化してもよい。例えば、調整部106は高次元である画像データを低次元化してもよい。また、画像データがベクトルデータではない場合は、調整部106は、該画像データを適宜ベクトル化してもよい。画像データのベクトル化は特に限定されず、例えば、主成分分析、LDA(Linear Discriminant Analysis;線形判別分析)、t-SNE(t-distributed Stochastic Neighbor Embedding)等の統計解析的な手段が用いられてもよいし、Encoder-Decoder、AutoEncoder、StyleTransfer、VGG等のClassifierを特徴抽出に用い、モデルの学習時に画像生成と同時にベクトル化する箇所を学習することでベクトル化する手法が用いられてもよい。 Further, the adjustment unit 106 may vectorize the image data acquired by the image acquisition unit 101 using various techniques. For example, the adjustment unit 106 may reduce the dimensionality of high-dimensional image data. Also, if the image data is not vector data, the adjustment unit 106 may appropriately vectorize the image data. Vectorization of image data is not particularly limited, for example, principal component analysis, LDA (Linear Discriminant Analysis), t-SNE (t-distributed Stochastic Neighbor Embedding) and other statistical analysis means are used. Alternatively, a classifier such as Encoder-Decoder, AutoEncoder, StyleTransfer, or VGG may be used for feature extraction, and a method of vectorization may be used by learning locations to be vectorized at the same time as image generation during model learning.

また、調整部106は、領域設定部103により設定された探索領域のうち、画像表示システム1の処理状況に応じて、選択対象集団のサイズを調整してもよい。ここで、選択対象集団とは、探索領域に含まれる候補画像の群のうち、処理状況に応じて予め画面200に表示すべき対象を限定した集団を意味する。第二表示制御部104は、この選択対象集団に含まれる候補画像を表示面26aに表示してもよい。 Further, the adjustment unit 106 may adjust the size of the selection target group in the search area set by the area setting unit 103 according to the processing status of the image display system 1 . Here, the selection target group means a group in which the targets to be displayed on the screen 200 are limited in advance according to the processing status among the group of candidate images included in the search area. The second display control unit 104 may display the candidate images included in this selection target group on the display surface 26a.

図14および図15は、本実施形態に係る調整部106による選択対象集団の調整に係る処理の一例を示す図である。図14は先の処理、図15は後の処理に係るものである。図14に示すように、先の処理においては、所定空間530において基準画像に係る画像データ531を基準に探索領域532が設定されている。一方、図15に示すように、後の処理においては、所定空間530において新たな基準画像に係る画像データ534を基準に探索領域535が設定されている。このとき、探索領域532は探索領域535よりも広い。 14 and 15 are diagrams showing an example of processing related to adjustment of the selection target group by the adjustment unit 106 according to this embodiment. FIG. 14 relates to the previous processing, and FIG. 15 relates to the subsequent processing. As shown in FIG. 14, in the previous process, a search area 532 is set in a predetermined space 530 based on image data 531 relating to a reference image. On the other hand, as shown in FIG. 15, in subsequent processing, a search area 535 is set in a predetermined space 530 based on image data 534 relating to a new reference image. At this time, the search area 532 is wider than the search area 535 .

先の処理では、候補画像の多様性を図るために探索領域を広くする一方で、その精度は大きくなくてもよい。むしろ精度を維持しようとすると、探索領域が広いため処理の負荷が大きくなる。そこで、調整部106は、探索領域の内側において、候補画像の対象となる選択対象集団を調整する。その選択対象集団のサイズは比較的小さめに設定される。なお、図14に示した例では、説明のため、所定の座標近傍付近の領域を選択対象集団として設定しているが、例えば、調整部106は、複数の位置を基準として複数の選択対象集団を設定してもよい。このように、候補画像の対象を選択対象集団のサイズを小さくして絞ることで、初期の処理においては高速に処理することができる。 In the above process, while the search area is widened in order to increase the diversity of the candidate images, the precision does not have to be high. Rather, if you try to maintain the accuracy, the search area is wide, so the processing load increases. Therefore, the adjustment unit 106 adjusts the selection target group that is the target of the candidate image inside the search area. The size of the selection target population is set relatively small. In the example shown in FIG. 14, for the sake of explanation, an area in the vicinity of predetermined coordinates is set as the selection target group. may be set. By narrowing down the size of the selection target population in this way, the initial processing can be performed at high speed.

一方で、図15に示す後の処理においては、ユーザによる選択が順次進められている段階である。そのため、調整部106は、選択対象集団のサイズを比較的大きく設定してもよく、探索領域の全体を選択対象集団として調整してもよい。これにより、ユーザの志向に対して確度の高い画像を選択することが可能となる。また、逆に調整部106は、処理が進むに連れて選択対象集団のサイズを小さくしてもよい。 On the other hand, in the subsequent processing shown in FIG. 15, the selection by the user is in progress. Therefore, the adjustment unit 106 may set the size of the selection target group to be relatively large, and may adjust the entire search area as the selection target group. This makes it possible to select an image with a high degree of certainty for the user's preference. Conversely, the adjustment unit 106 may reduce the size of the selection target group as the process progresses.

以上、制御部11のソフトウェア構成の各機能について説明した。 Each function of the software configuration of the control unit 11 has been described above.

次に、領域設定部103による領域設定処理の変形例について説明する。領域設定部103は、基準画像201の画像データに基づいて探索領域を設定する。その際、探索領域の位置やサイズは上述した設定の方法に限定されない。 Next, a modification of the area setting process by the area setting unit 103 will be described. A region setting unit 103 sets a search region based on the image data of the reference image 201 . At that time, the position and size of the search area are not limited to the setting method described above.

図16は、本実施形態の変形例に係る領域設定部103による探索領域の設定処理の一例を示す図である。図示するように、所定空間540において画像群が存在するが、そのうち画像表示システム1による過去の処理により、画像データ541、542、543に係る画像が基準画像として選択されたとする。この場合、領域設定部103は、画像データ541~543に基づいて探索領域を設定してもよい。例えば、領域設定部103は、画像データ541~543の重心や中心といった幾何的中心544の位置を基準として、探索領域545を設定してもよい。 FIG. 16 is a diagram showing an example of search area setting processing by the area setting unit 103 according to the modification of the present embodiment. As shown in the figure, a group of images exists in a predetermined space 540, and images related to image data 541, 542, and 543 are selected as reference images by past processing by the image display system 1. FIG. In this case, the area setting section 103 may set the search area based on the image data 541-543. For example, the region setting unit 103 may set the search region 545 based on the position of the geometric center 544 such as the center of gravity or the center of the image data 541-543.

図17は、本実施形態の変形例に係る領域設定部103による探索領域の設定処理の一例を示す図である。図示するように、所定空間550において画像群が存在するが、そのうち画像表示システム1による過去の処理により、画像データ551~557係る画像が基準画像として選択されたとする。この場合、領域設定部103は、画像データ551~557の分布に基づいて探索領域を設定してもよい。例えば、領域設定部103は、画像データ551~557について統計処理を行い、その平均値や分散等の統計値に基づいて探索領域558を設定してもよい。 FIG. 17 is a diagram showing an example of search area setting processing by the area setting unit 103 according to a modification of the present embodiment. As shown in the figure, a group of images exists in a predetermined space 550, and images related to image data 551 to 557 are selected as reference images by past processing by the image display system 1. FIG. In this case, the area setting section 103 may set the search area based on the distribution of the image data 551-557. For example, the area setting unit 103 may perform statistical processing on the image data 551 to 557 and set the search area 558 based on statistical values such as the average value and variance.

図18は、本実施形態の変形例に係る領域設定部103による探索領域の設定処理の一例を示す図である。図示するように、所定空間560において画像群が存在するが、そのうち画像表示システム1による過去の処理により、画像データ561、562、563、564に係る画像が基準画像として選択されたとする。一連の繰り返し処理では、画像データ561、562、563、564の順に基準画像として選択されている。 FIG. 18 is a diagram showing an example of search area setting processing by the area setting unit 103 according to a modification of the present embodiment. As shown in the figure, there are images in a predetermined space 560, and images related to image data 561, 562, 563, and 564 are selected as reference images by past processing by the image display system 1. FIG. In a series of repeated processes, image data 561, 562, 563, and 564 are selected as reference images in this order.

この場合、領域設定部103は、画像データ561~564の基準画像としての選択の推移に基づいて探索領域を設定してもよい。図示するように、例えば、領域設定部103は、画像データ564に係る画像が基準画像として選択された場合に、画像データ561の推移の重み付き重心となる部分を中心とする領域を探索領域565として設定してもよい。これにより、ユーザの所望の画像が存在すると思われる領域を過去の推移から導くことができるので、探索効率を向上させることができる。重み付けの方法を変更する(例えば直前の処理で選択された基準画像に係る画像データに重みを大きくする)ことで、領域設定部103は、探索領域566を設定してもよい。 In this case, the region setting unit 103 may set the search region based on the transition of selection of the image data 561 to 564 as the reference image. As shown in the figure, for example, when the image related to the image data 564 is selected as the reference image, the region setting unit 103 sets the region centered on the weighted center of gravity of the transition of the image data 561 as the search region 565 . may be set as As a result, the region where the user's desired image is thought to exist can be derived from past transitions, so search efficiency can be improved. The region setting unit 103 may set the search region 566 by changing the weighting method (for example, by increasing the weight of the image data related to the reference image selected in the immediately preceding process).

また、領域設定部103は、図8で示した画面200に表示されているスライダーバー205を操作することによって、手動で探索領域を設定および調整してもよい。他にも、領域設定部103は、図6に示すような所定空間500にマッピングされた画像群の画面を表示面26aに表示し、ユーザの操作の該画面に対する操作に基づいて探索領域を設定してもよい。 Alternatively, the area setting unit 103 may manually set and adjust the search area by operating the slider bar 205 displayed on the screen 200 shown in FIG. In addition, the area setting unit 103 displays on the display surface 26a a screen of an image group mapped in a predetermined space 500 as shown in FIG. 6, and sets a search area based on the user's operation on the screen. You may

以上、領域設定部103による探索領域の設定処理の変形例について説明した。 A modification of the search area setting process by the area setting unit 103 has been described above.

図19は、本実施形態の画像表示システム1により実行される処理の流れを示すフローチャートである。まず、画像取得部101は、基準画像の画像データを取得する(SQ101)。次に、領域設定部103が、基準画像の画像データをもとに、所定空間上での探索領域を設定する(SQ102)。次に、画像取得部101は、探索領域に含まれる候補画像の画像データを取得する(SQ103)。 FIG. 19 is a flow chart showing the flow of processing executed by the image display system 1 of this embodiment. First, the image acquisition unit 101 acquires image data of a reference image (SQ101). Next, the area setting unit 103 sets a search area in a predetermined space based on the image data of the reference image (SQ102). Next, the image acquisition unit 101 acquires image data of candidate images included in the search area (SQ103).

次に、第一表示制御部102は、基準画像を表示面に表示する処理を行う(SQ104)。また、第二表示制御部104は、候補画像を表示面に表示する処理を行う(SQ105)。次に、ユーザ端末20の表示面26aへのユーザの操作に対して(SQ106)、候補画像の一が選択された場合(SQ106/YES)、操作取得部105は選択された候補画像に係る情報を取得する(SQ107)。一方で、表示面26aへのユーザの操作に対して候補画像が選択されなかった(例えば処理を完了するボタンが選択された)場合(SQ106/NO)、画像表示システム1による処理を終了する。 Next, the first display control unit 102 performs processing for displaying the reference image on the display surface (SQ104). Further, the second display control unit 104 performs processing for displaying the candidate image on the display surface (SQ105). Next, in response to the user's operation on the display surface 26a of the user terminal 20 (SQ106), if one of the candidate images is selected (SQ106/YES), the operation acquisition unit 105 acquires information related to the selected candidate image. (SQ107). On the other hand, if no candidate image is selected in response to the user's operation on the display surface 26a (for example, a button to complete the process is selected) (SQ106/NO), the process by the image display system 1 ends.

本発明の実施形態は、例えば、上記で説明したような電子機器、システム、電子機器またはシステムで実行される方法、電子機器を機能させるためのプログラム、およびプログラムが記録された一時的でない有形の媒体を含みうる。 Embodiments of the present invention include, for example, an electronic device, a system, a method performed by the electronic device or system as described above, a program for operating the electronic device, and a non-transitory tangible medium in which the program is recorded. It can contain a medium.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明の技術的範囲はかかる例に限定されない。本発明の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, the technical scope of the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present invention can conceive of various modifications or modifications within the scope of the technical idea described in the claims. is naturally within the technical scope of the present invention.

例えば、上記実施形態においては、画像表示システム1は、画像処理サーバ10とユーザ端末20とにより構成されていたが、本発明はかかる例に限定されない。例えば他の実施形態では、画像表示システム1は、ユーザ端末20のみにより構成されてもよい。この場合、画像処理サーバ10が有している機能がユーザ端末20の備える各種ハードウェアにより実現されてもよい。 For example, in the above embodiment, the image display system 1 is composed of the image processing server 10 and the user terminal 20, but the present invention is not limited to such an example. For example, in another embodiment, the image display system 1 may be configured with only the user terminal 20 . In this case, the functions of the image processing server 10 may be implemented by various hardware of the user terminal 20 .

また、上記実施形態における各ステップは、必ずしもフローチャート図として記載された順序に沿って時系列に処理される必要はない。例えば、上記実施形態の処理における各ステップは、フローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。 Further, each step in the above embodiment does not necessarily have to be processed in chronological order according to the order described in the flowchart. For example, each step in the processing of the above-described embodiment may be processed in an order different from the order described in the flowchart, or may be processed in parallel.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本発明に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Also, the effects described herein are merely illustrative or exemplary, and are not limiting. In other words, the technology according to the present invention can produce other effects that are obvious to those skilled in the art from the description of this specification in addition to or instead of the above effects.

1 画像表示システム
10 画像処理サーバ
11 制御部
15 画像制御部
16 画像用メモリ
20 ユーザ端末
26 表示部
26a 表示面
101 画像取得部
102 第一表示制御部
103 領域設定部
104 第二表示制御部
105 操作取得部
106 調整部
1 image display system 10 image processing server 11 control unit 15 image control unit 16 image memory 20 user terminal 26 display unit 26a display surface 101 image acquisition unit 102 first display control unit 103 area setting unit 104 second display control unit 105 operation Acquisition unit 106 Adjustment unit

Claims (4)

ユーザの所望するコンテンツを自動的に生成にするためのコンテンツ表示システムであって、
基準コンテンツを表示面に表示させる第一表示制御部と、
前記基準コンテンツとは異なるコンテンツ情報をそれぞれ有する候補コンテンツを、前記表示面の前記基準コンテンツの表示領域とは異なる領域において、選択可能に表示させる第二表示制御部と、
を備え、
前記候補コンテンツの各々のコンテンツデータは、
前記基準コンテンツのコンテンツデータに基づいて生成され、かつ、前記基準コンテンツと所定の類似度を有するものであり、
前記第一表示制御部は、前記表示面に表示された前記候補コンテンツのうち一のコンテンツに対する選択が入力された場合に、前記選択した候補コンテンツを新たな基準コンテンツとして、前記基準コンテンツの表示領域に表示させる、コンテンツ表示システム。
A content display system for automatically generating user-desired content,
a first display control unit that displays the reference content on a display surface;
a second display control unit for selectively displaying candidate contents each having content information different from the reference content in an area of the display surface different from the display area of the reference content;
with
The content data for each of said candidate content comprises:
is generated based on the content data of the reference content and has a predetermined degree of similarity with the reference content;
When a selection of one of the candidate contents displayed on the display surface is input, the first display control unit sets the selected candidate content as a new reference content to a display area of the reference content. A content display system that displays
前記第二表示制御部は、前記選択された新たな基準コンテンツのコンテンツデータに基づいて決定される、前記新たな基準コンテンツと所定の類似度を有するコンテンツデータに係る新たな候補コンテンツの各々を表示させる、請求項1に記載のコンテンツ表示システム。 The second display control unit displays each new candidate content related to content data having a predetermined degree of similarity with the new reference content, which is determined based on content data of the selected new reference content. 2. The content display system according to claim 1, wherein the content display system allows 前記コンテンツデータは、前記コンテンツをベクトル化処理して得られる、請求項1に記載のコンテンツ表示システム。 2. The content display system according to claim 1, wherein said content data is obtained by vectorizing said content. ユーザの所望するコンテンツを自動的に生成にするためのコンテンツ生成システムであって、
基準コンテンツと、前記基準コンテンツとは異なり、前記基準コンテンツと所定の類似度を有する、候補コンテンツとを表示させる表示制御部と、
前記候補コンテンツのうち一のコンテンツに対する選択が入力された場合に、選択された前記一のコンテンツを前記基準コンテンツとして決定し、
前記一のコンテンツを新たな基準コンテンツとして、前記表示面に表示させる画像制御部と、
を有するコンテンツ生成システム。
















A content generation system for automatically generating content desired by a user,
a display control unit configured to display reference content and candidate content that is different from the reference content and has a predetermined degree of similarity with the reference content;
determining the selected one content as the reference content when a selection of one content among the candidate content is input;
an image control unit for displaying the one content as a new reference content on the display surface;
A content generation system comprising:
















JP2023003426A 2021-06-30 2023-01-12 Image display system and program Pending JP2023055725A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2021109726 2021-06-30
JP2021109726 2021-06-30
JP2021162386 2021-09-30
JP2021162386 2021-09-30
JP2022166562A JP7215793B2 (en) 2019-09-09 2022-10-17 Image display system and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022166562A Division JP7215793B2 (en) 2019-09-09 2022-10-17 Image display system and program

Publications (1)

Publication Number Publication Date
JP2023055725A true JP2023055725A (en) 2023-04-18

Family

ID=87761035

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023003426A Pending JP2023055725A (en) 2021-06-30 2023-01-12 Image display system and program

Country Status (1)

Country Link
JP (1) JP2023055725A (en)

Similar Documents

Publication Publication Date Title
US20200242774A1 (en) Semantic image synthesis for generating substantially photorealistic images using neural networks
US20180218202A1 (en) Image processing device, method thereof, and program
JP6013642B2 (en) Campaign optimization for experience content datasets
EP2972950B1 (en) Segmentation of content delivery
CN111432267B (en) Video adjusting method and device, electronic equipment and storage medium
US10713471B2 (en) System and method for simulating facial expression of virtual facial model
US11698715B2 (en) Image display system and program
JP2023511332A (en) Augmented reality map curation
JP2019175266A (en) Operation generation device, model generation device, operation generation method and program
TWI798912B (en) Search method, electronic device and non-transitory computer-readable recording medium
JP7215793B2 (en) Image display system and program
JP7176164B2 (en) Image display system and program
CN112823528B (en) Information processing device, information processing method, and information processing program
JP2023055725A (en) Image display system and program
US11645331B2 (en) Searching and ranking personalized videos
JP2020077270A (en) Method for generating 3D object arranged in virtual reality space
JP2022173246A (en) Information processing device and program
KR101483741B1 (en) Method of touch gesture recognition using depth slice pattern image and system thereof
Su et al. Enabling continuous object recognition in mobile augmented reality
JP7184835B2 (en) Computer program, method and server device
WO2023189601A1 (en) Information processing device, recording medium, and information processing method
KR102637342B1 (en) Method and apparatus of tracking target objects and electric device
KR102510051B1 (en) Control method of electronic device to determine motion matching using by reference position for each time and joint
US20230274535A1 (en) User-guided image generation
GB2556068A (en) Data interation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240528