JP7036695B2 - Distribution device and distribution method - Google Patents

Distribution device and distribution method Download PDF

Info

Publication number
JP7036695B2
JP7036695B2 JP2018175184A JP2018175184A JP7036695B2 JP 7036695 B2 JP7036695 B2 JP 7036695B2 JP 2018175184 A JP2018175184 A JP 2018175184A JP 2018175184 A JP2018175184 A JP 2018175184A JP 7036695 B2 JP7036695 B2 JP 7036695B2
Authority
JP
Japan
Prior art keywords
image
unit
content
feature amount
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018175184A
Other languages
Japanese (ja)
Other versions
JP2020046969A (en
Inventor
政明 厚地
潤 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018175184A priority Critical patent/JP7036695B2/en
Publication of JP2020046969A publication Critical patent/JP2020046969A/en
Application granted granted Critical
Publication of JP7036695B2 publication Critical patent/JP7036695B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、電子的なコンテンツを配信するための配信装置、配信方法、表示端末、表示プログラム及び表示方法に関する。 The present invention relates to a distribution device, a distribution method, a display terminal, a display program, and a display method for distributing electronic contents.

従来、ニュース記事等のコンテンツに関連付けられた見出しの一覧を表示し、ユーザがいずれかの見出しを選択することによって詳細な記事を表示するサービスが普及している(例えば特許文献1参照)。 Conventionally, a service of displaying a list of headlines associated with contents such as news articles and displaying detailed articles by a user selecting one of the headlines has become widespread (see, for example, Patent Document 1).

特開2008-176491号公報Japanese Unexamined Patent Publication No. 2008-176491

このようなサービスは、ユーザが記事の内容を視覚的に把握できるように、見出しの近傍に、各記事に含まれる画像の一部を切り出してサムネイル画像として表示する場合がある。見出しの一覧性を確保するために、表示可能なサムネイル画像の大きさは限られている。そのため、画像中の決まった位置(例えば上部や中央部)を切り出すと、画像中で記事の内容に関係のない部分がサムネイル画像になってしまい、ユーザがサムネイル画像を見ても記事の内容を把握できないことがあった。 Such a service may cut out a part of the image included in each article and display it as a thumbnail image in the vicinity of the headline so that the user can visually grasp the content of the article. The size of the thumbnail image that can be displayed is limited in order to ensure the listability of the headline. Therefore, if you cut out a fixed position (for example, the upper part or the center part) in the image, the part of the image that is not related to the content of the article will become a thumbnail image, and even if the user sees the thumbnail image, the content of the article will be displayed. There were times when I couldn't figure it out.

本発明は上述の点に鑑みてなされたものであり、コンテンツに含まれている画像に基づいて、ユーザにとってコンテンツの内容がわかりやすいサムネイル画像を表示できる配信装置、配信方法、表示端末、表示プログラム及び表示方法を提供することを目的とする。 The present invention has been made in view of the above points, and a distribution device, a distribution method, a display terminal, a display program, and a distribution device, a distribution method, a display terminal, and a display program capable of displaying a thumbnail image in which the content of the content is easy for the user to understand based on the image included in the content. The purpose is to provide a display method.

本発明の第1の態様の配信装置は、画像及び文章を含むコンテンツを取得する取得部と、前記画像の中で被写体の特徴量を算出し、算出した前記特徴量に基づいて前記画像の一部の範囲を特定する特定部と、前記画像の中で前記範囲を切り出すことによって部分画像を生成する生成部と、前記部分画像を含む第1画面を表示するための情報を表示端末へ送信するとともに、前記第1画面において前記コンテンツに関連付けられた要素をユーザが選択した場合に前記コンテンツを含む第2画面を表示するための情報を前記表示端末へ送信する送信部と、を有する。 The distribution device according to the first aspect of the present invention includes an acquisition unit for acquiring content including an image and a sentence, calculates a feature amount of a subject in the image, and is one of the images based on the calculated feature amount. A specific part that specifies the range of the part, a generation part that generates a partial image by cutting out the range in the image, and information for displaying the first screen including the partial image are transmitted to the display terminal. In addition, it has a transmission unit that transmits information for displaying the second screen including the content to the display terminal when the user selects an element associated with the content on the first screen.

前記特定部は、前記特徴量に基づいて前記画像の中で人物又はマークを認識し、認識した前記人物又はマークを含む前記範囲を特定してもよい。 The specific unit may recognize a person or mark in the image based on the feature amount, and may specify the range including the recognized person or mark.

前記特定部は、前記画像の中で複数の人物又はマークを認識した場合に、認識した前記複数の人物又はマークを含む前記範囲を特定してもよい。 When a plurality of persons or marks are recognized in the image, the specific unit may specify the range including the recognized plurality of persons or marks.

前記特定部は、前記特徴量と記憶部に記憶された基準特徴量とを比較することによって、前記範囲を特定してもよい。 The specific unit may specify the range by comparing the feature amount with the reference feature amount stored in the storage unit.

前記特定部は、前記文章に含まれている人物又は集団の名称に関連付けられた前記基準特徴量を前記記憶部から取得し、前記特徴量及び前記基準特徴量に基づいて前記範囲を特定してもよい。 The specific unit acquires the reference feature amount associated with the name of the person or group included in the sentence from the storage unit, and specifies the range based on the feature amount and the reference feature amount. May be good.

前記特定部は、前記ユーザの嗜好に合致する前記基準特徴量を前記記憶部から取得し、前記特徴量及び前記基準特徴量に基づいて前記範囲を特定してもよい。 The specific unit may acquire the reference feature amount that matches the taste of the user from the storage unit, and specify the range based on the feature amount and the reference feature amount.

前記生成部は、前記画像の中で互いに異なる前記範囲を切り出すことによって複数の前記部分画像を生成し、前記送信部は、複数の前記部分画像のうち、複数の前記部分画像に対するユーザの選択状況に基づいて統計的に選択したいずれか1つの前記部分画像を含む前記第1画面を表示するための情報を前記表示端末へ送信してもよい。 The generation unit generates a plurality of the partial images by cutting out the ranges different from each other in the image, and the transmission unit generates the user's selection status for the plurality of the partial images among the plurality of the partial images. Information for displaying the first screen including any one of the partial images statistically selected based on the above may be transmitted to the display terminal.

前記特定部は、前記ユーザの属性に基づいて、前記部分画像の大きさ又は前記範囲の大きさを変更してもよい。 The specific unit may change the size of the partial image or the size of the range based on the attributes of the user.

本発明の第2の態様の配信方法は、プロセッサが、画像及び文章を含むコンテンツを取得するステップと、前記画像の中で被写体の特徴量を算出し、算出した前記特徴量に基づいて前記画像の一部の範囲を特定するステップと、前記画像の中で前記範囲を切り出すことによって部分画像を生成するステップと、前記部分画像を含む第1画面を表示するための情報を表示端末へ送信するとともに、前記第1画面において前記コンテンツに関連付けられた要素をユーザが選択した場合に前記コンテンツを含む第2画面を表示するための情報を前記表示端末へ送信するステップと、を実行する。 In the distribution method of the second aspect of the present invention, the processor acquires a content including an image and a sentence, calculates a feature amount of a subject in the image, and the image is based on the calculated feature amount. A step of specifying a part of the range of the image, a step of generating a partial image by cutting out the range in the image, and information for displaying the first screen including the partial image are transmitted to the display terminal. At the same time, when the user selects an element associated with the content on the first screen, the step of transmitting information for displaying the second screen including the content to the display terminal is executed.

本発明の第3の態様の表示端末は、画像及び文章を含むコンテンツを取得する取得部と、前記画像の中で被写体の特徴量を算出し、算出した前記特徴量に基づいて前記画像の一部の範囲を特定する特定部と、前記画像の中で前記範囲を切り出すことによって部分画像を生成する生成部と、前記部分画像を含む第1画面を表示するとともに、前記第1画面において前記コンテンツに関連付けられた要素をユーザが選択した場合に前記コンテンツを含む第2画面を表示する表示部と、を有する。 The display terminal according to the third aspect of the present invention includes an acquisition unit that acquires content including an image and a sentence, calculates a feature amount of a subject in the image, and is one of the images based on the calculated feature amount. A specific part that specifies the range of the part, a generation part that generates a partial image by cutting out the range in the image, and a first screen including the partial image are displayed, and the content is displayed on the first screen. It has a display unit for displaying a second screen including the content when the user selects an element associated with.

前記特定部は、前記特徴量に基づいて前記画像の中で人物又はマークを認識し、認識した前記人物又はマークを含む前記範囲を特定してもよい。 The specific unit may recognize a person or mark in the image based on the feature amount, and may specify the range including the recognized person or mark.

前記特定部は、前記特徴量と記憶部に記憶された基準特徴量とを比較することによって、前記範囲を特定してもよい。 The specific unit may specify the range by comparing the feature amount with the reference feature amount stored in the storage unit.

前記特定部は、前記文章に含まれている人物又は集団の名称に関連付けられた前記基準特徴量を前記記憶部から取得し、前記特徴量及び前記基準特徴量に基づいて前記範囲を特定してもよい。 The specific unit acquires the reference feature amount associated with the name of the person or group included in the sentence from the storage unit, and specifies the range based on the feature amount and the reference feature amount. May be good.

本発明の第4の態様の表示プログラムは、表示端末に、画像及び文章を含むコンテンツを取得するステップと、前記画像の中で被写体の特徴量を算出し、算出した前記特徴量に基づいて前記画像の一部の範囲を特定するステップと、前記画像の中で前記範囲を切り出すことによって部分画像を生成するステップと、前記部分画像を含む第1画面を表示するとともに、前記第1画面において前記コンテンツに関連付けられた要素をユーザが選択した場合に前記コンテンツを含む第2画面を表示するステップと、を実行させる。 In the display program of the fourth aspect of the present invention, the step of acquiring the content including the image and the text on the display terminal, the feature amount of the subject in the image is calculated, and the feature amount is calculated based on the calculated feature amount. A step of specifying a partial range of an image, a step of generating a partial image by cutting out the range in the image, and a first screen including the partial image are displayed, and the first screen includes the above. When the user selects an element associated with the content, the step of displaying the second screen including the content is executed.

本発明の第5の態様の表示方法は、プロセッサが、画像及び文章を含むコンテンツを取得するステップと、前記画像の中で被写体の特徴量を算出し、算出した前記特徴量に基づいて前記画像の一部の範囲を特定するステップと、前記画像の中で前記範囲を切り出すことによって部分画像を生成するステップと、前記部分画像を含む第1画面を表示するとともに、前記第1画面において前記コンテンツに関連付けられた要素をユーザが選択した場合に前記コンテンツを含む第2画面を表示するステップと、を実行する。 In the display method of the fifth aspect of the present invention, the processor acquires a content including an image and a sentence, calculates a feature amount of a subject in the image, and the image is based on the calculated feature amount. A step of specifying a part of the range, a step of generating a partial image by cutting out the range in the image, a first screen including the partial image is displayed, and the content is displayed on the first screen. When the user selects an element associated with, the step of displaying the second screen including the content is executed.

本発明によれば、コンテンツに含まれている画像に基づいて、ユーザにとってコンテンツの内容がわかりやすいサムネイル画像を表示できるという効果を奏する。 According to the present invention, it is possible to display a thumbnail image in which the content of the content is easy for the user to understand based on the image included in the content.

第1の実施形態に係る配信システムの模式図である。It is a schematic diagram of the distribution system which concerns on 1st Embodiment. 第1の実施形態に係る配信システムのブロック図である。It is a block diagram of the distribution system which concerns on 1st Embodiment. コンテンツの一覧画面及び詳細画面を表示している表示端末の正面図である。It is a front view of the display terminal which displays the content list screen and the detail screen. 特徴情報記憶部が記憶している特徴情報の模式図である。It is a schematic diagram of the feature information stored in the feature information storage part. 範囲特定部及び部分画像生成部が画像に基づいて部分画像を生成する方法の模式図である。It is a schematic diagram of the method in which a range specifying part and a partial image generation part generate a partial image based on an image. 画像の中で複数の人物又はマークが検出された場合の範囲を特定する方法の模式図である。It is a schematic diagram of the method of specifying the range when a plurality of people or marks are detected in an image. 第1の実施形態に係る配信方法のフローチャートを示す図である。It is a figure which shows the flowchart of the delivery method which concerns on 1st Embodiment. 第2の実施形態に係る配信システムのブロック図である。It is a block diagram of the distribution system which concerns on 2nd Embodiment. 特徴情報記憶部が記憶している特徴情報の模式図である。It is a schematic diagram of the feature information stored in the feature information storage part. ユーザ情報記憶部が記憶しているユーザ情報の模式図である。It is a schematic diagram of the user information stored in the user information storage unit. 範囲特定部及び部分画像生成部が画像に基づいて部分画像を生成する方法の模式図である。It is a schematic diagram of the method in which a range specifying part and a partial image generation part generate a partial image based on an image. ユーザ情報記憶部が記憶しているユーザ情報の模式図である。It is a schematic diagram of the user information stored in the user information storage unit. 一覧画面におけるユーザの選択状況を示す模式図である。It is a schematic diagram which shows the selection situation of the user in the list screen.

(第1の実施形態)
[配信システムSの概要]
図1は、本実施形態に係る配信システムSの模式図である。配信システムSは、配信サーバ1と、表示端末2とを含む。配信システムSは、その他のサーバ、端末等の機器を含んでもよい。
(First Embodiment)
[Overview of distribution system S]
FIG. 1 is a schematic diagram of a distribution system S according to the present embodiment. The distribution system S includes a distribution server 1 and a display terminal 2. The distribution system S may include other devices such as servers and terminals.

配信サーバ1(配信装置)は、有線又は無線の通信を行うことが可能であり、電子的なコンテンツ(以下、コンテンツという)を表示するためのデータを表示端末2へ送信するコンピュータである。コンテンツは、テキスト(文字)及び画像(静止画像又は動画像)を含む。配信サーバ1は、インターネット、ローカルエリアネットワーク等のネットワークNを介してコンテンツを表示するためのデータを、表示端末2へ送信する。 The distribution server 1 (distribution device) is a computer capable of performing wired or wireless communication and transmitting data for displaying electronic contents (hereinafter referred to as contents) to the display terminal 2. Content includes text (text) and images (still or moving images). The distribution server 1 transmits data for displaying contents to the display terminal 2 via a network N such as the Internet or a local area network.

表示端末2は、有線又は無線の通信を行うことが可能であり、通信によって取得したコンテンツを表示可能な通信装置である。例えば表示端末2は、スマートフォン、タブレット端末等の携帯端末や、パーソナルコンピュータである。表示端末2は、ネットワークNを介してコンテンツを表示するためのデータを配信サーバ1から受信して、コンテンツを表示する。 The display terminal 2 is a communication device capable of performing wired or wireless communication and displaying contents acquired by communication. For example, the display terminal 2 is a mobile terminal such as a smartphone or a tablet terminal, or a personal computer. The display terminal 2 receives data for displaying the content via the network N from the distribution server 1 and displays the content.

[配信システムSの構成]
図2は、本実施形態に係る配信システムSのブロック図である。図2において、矢印は主なデータの流れを示しており、図2に示したもの以外のデータの流れがあってよい。図2において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に分かれて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
[Configuration of distribution system S]
FIG. 2 is a block diagram of the distribution system S according to the present embodiment. In FIG. 2, the arrows indicate the main data flows, and there may be data flows other than those shown in FIG. In FIG. 2, each block shows not a hardware (device) unit configuration but a functional unit configuration. Therefore, the block shown in FIG. 2 may be mounted in a single device, or may be mounted separately in a plurality of devices. Data can be exchanged between blocks via any means such as a data bus, a network, and a portable storage medium.

配信サーバ1は、制御部11と、記憶部12とを有する。制御部11は、操作受付部111と、コンテンツ取得部112と、範囲特定部113と、部分画像生成部114と、送信部115とを有する。記憶部12は、コンテンツ記憶部121と、特徴情報記憶部122とを有する。 The distribution server 1 has a control unit 11 and a storage unit 12. The control unit 11 includes an operation reception unit 111, a content acquisition unit 112, a range specifying unit 113, a partial image generation unit 114, and a transmission unit 115. The storage unit 12 has a content storage unit 121 and a feature information storage unit 122.

記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部12は、制御部11が実行するプログラムを予め記憶している。記憶部12は、配信サーバ1の外部に設けられてもよく、その場合にネットワークを介して制御部11との間でデータの授受を行ってもよい。 The storage unit 12 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), a hard disk drive, and the like. The storage unit 12 stores in advance the program executed by the control unit 11. The storage unit 12 may be provided outside the distribution server 1, and in that case, data may be exchanged with the control unit 11 via a network.

コンテンツ記憶部121は、コンテンツを表示するためのデータを記憶する。特徴情報記憶部122は、画像の中で所定の被写体を検出するための特徴情報を記憶する。コンテンツ記憶部121及び特徴情報記憶部122は、それぞれ記憶部12上の記憶領域であってもよく、あるいは記憶部12上で構成されたデータベースであってもよい。 The content storage unit 121 stores data for displaying the content. The feature information storage unit 122 stores feature information for detecting a predetermined subject in an image. The content storage unit 121 and the feature information storage unit 122 may each be a storage area on the storage unit 12, or may be a database configured on the storage unit 12.

制御部11は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部12に記憶されたプログラムを実行することにより、操作受付部111、コンテンツ取得部112、範囲特定部113、部分画像生成部114及び送信部115として機能する。制御部11の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部11の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。 The control unit 11 is, for example, a processor such as a CPU (Central Processing Unit), and by executing a program stored in the storage unit 12, the operation reception unit 111, the content acquisition unit 112, the range specifying unit 113, and the partial image generation It functions as a unit 114 and a transmission unit 115. At least some of the functions of the control unit 11 may be performed by an electric circuit. Further, at least a part of the functions of the control unit 11 may be executed by a program executed via the network.

表示端末2は、表示部21と、操作部22とを有する。表示部21は、液晶ディスプレイ等、情報を表示可能な表示装置を含む。操作部22は、キーボード、マウス等、ユーザの操作を受け付け可能な操作装置を含む。表示部21としてユーザによる接触の位置を検出可能なタッチスクリーンを用いることによって、表示部21と操作部22とを一体に構成してもよい。 The display terminal 2 has a display unit 21 and an operation unit 22. The display unit 21 includes a display device capable of displaying information such as a liquid crystal display. The operation unit 22 includes an operation device such as a keyboard and a mouse that can accept user operations. The display unit 21 and the operation unit 22 may be integrally configured by using a touch screen capable of detecting the position of contact by the user as the display unit 21.

本実施形態に係る配信システムSは、図2に示す具体的な構成に限定されない。配信サーバ1及び表示端末2は、それぞれ1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。 The distribution system S according to the present embodiment is not limited to the specific configuration shown in FIG. The distribution server 1 and the display terminal 2 are not limited to one device each, and may be configured by connecting two or more physically separated devices by wire or wirelessly.

[配信方法の説明]
コンテンツ記憶部121は、ニュース記事等のコンテンツに含まれる画像及び文章のデータを予め記憶している。ここではコンテンツ記憶部121は、コンテンツとしてニュース記事のデータを記憶しているが、その他の種類のコンテンツのデータを記憶してもよい。また、コンテンツ記憶部121は、後述の範囲特定部113及び部分画像生成部114がコンテンツに含まれる画像の一部を切り出すことによって生成した部分画像のデータを、コンテンツに関連付けて記憶する。
[Explanation of delivery method]
The content storage unit 121 stores in advance image and text data included in content such as news articles. Here, the content storage unit 121 stores the data of the news article as the content, but may store the data of other types of content. Further, the content storage unit 121 stores the data of the partial image generated by cutting out a part of the image included in the content by the range specifying unit 113 and the partial image generation unit 114, which will be described later, in association with the content.

図3(a)は、コンテンツの一覧画面Aを表示している表示端末2の正面図である。一覧画面A(第1画面)は、1つ以上の部分画像A1と、1つ以上の見出しA2とを含む。部分画像A1(サムネイル画像ともいう)は、コンテンツに含まれる画像B1の一部を切り出した画像である。見出しA2は、コンテンツに含まれる文章B2の表題である。部分画像A1及び見出しA2は、コンテンツに関連付けられた要素であり、該コンテンツの詳細画面Bにリンクされている。 FIG. 3A is a front view of the display terminal 2 displaying the content list screen A. The list screen A (first screen) includes one or more partial images A1 and one or more headings A2. The partial image A1 (also referred to as a thumbnail image) is an image obtained by cutting out a part of the image B1 included in the content. The heading A2 is the title of the sentence B2 included in the content. The partial image A1 and the heading A2 are elements associated with the content and are linked to the detail screen B of the content.

図3(b)は、コンテンツの詳細画面Bを表示している表示端末2の正面図である。詳細画面B(第2画面)は、画像B1と、文章B2とを含む。画像B1は、コンテンツに含まれる画像であり、部分画像A1の元となる画像である。文章B2は、コンテンツに含まれる文章である。 FIG. 3B is a front view of the display terminal 2 displaying the content detail screen B. The detail screen B (second screen) includes an image B1 and a sentence B2. The image B1 is an image included in the content and is an image that is the source of the partial image A1. The sentence B2 is a sentence included in the content.

本実施形態に係る配信方法において、表示端末2のユーザは、一覧画面Aを閲覧したい場合に、操作部22を用いて一覧画面Aを表示するための操作を行う。表示端末2は、一覧画面Aを表示するための操作を示す情報を、配信サーバ1へ送信する。 In the distribution method according to the present embodiment, when the user of the display terminal 2 wants to view the list screen A, the operation unit 22 is used to perform an operation for displaying the list screen A. The display terminal 2 transmits information indicating an operation for displaying the list screen A to the distribution server 1.

配信サーバ1において、操作受付部111は、一覧画面Aを表示するための操作を示す情報を表示端末2から受信して受け付ける。コンテンツ取得部112は、操作受付部111が一覧画面Aを表示するための操作を示す情報を受け付けた場合に、一覧画面Aに表示される1つ以上のコンテンツに関連付けられた、部分画像A1のデータと、見出しA2のデータとを、コンテンツ記憶部121から取得する。一覧画面Aに表示されるコンテンツは、所定の規則に基づいて自動的に指定されてもよい。この場合に、例えばコンテンツ取得部112は、記録された時刻が新しい順に所定個のコンテンツを取得する。あるいは一覧画面Aに表示されるコンテンツは、配信サーバ1の管理者等によって手動で予め指定されてもよい。 In the distribution server 1, the operation reception unit 111 receives and receives information indicating an operation for displaying the list screen A from the display terminal 2. The content acquisition unit 112 of the partial image A1 associated with one or more contents displayed on the list screen A when the operation reception unit 111 receives information indicating an operation for displaying the list screen A. The data and the data of the heading A2 are acquired from the content storage unit 121. The content displayed on the list screen A may be automatically specified based on a predetermined rule. In this case, for example, the content acquisition unit 112 acquires a predetermined number of contents in the order of newest recorded time. Alternatively, the content displayed on the list screen A may be manually specified in advance by the administrator of the distribution server 1 or the like.

一覧画面Aに表示されるコンテンツに関連付けられた部分画像A1のデータがコンテンツ記憶部121に記憶されていない場合に、範囲特定部113及び部分画像生成部114は、一覧画面Aに表示されるコンテンツに含まれる画像B1に基づいて部分画像A1を生成する。 When the data of the partial image A1 associated with the content displayed on the list screen A is not stored in the content storage unit 121, the range specifying unit 113 and the partial image generation unit 114 may display the content displayed on the list screen A. A partial image A1 is generated based on the image B1 included in.

具体的には、範囲特定部113は、一覧画面Aに表示されるコンテンツに含まれる画像B1のデータをコンテンツ記憶部121から取得するとともに、特徴情報を特徴情報記憶部122から取得する。 Specifically, the range specifying unit 113 acquires the data of the image B1 included in the content displayed on the list screen A from the content storage unit 121 and the feature information from the feature information storage unit 122.

図4は、特徴情報記憶部122が記憶している特徴情報Cの模式図である。特徴情報Cは、画像の中で人物、マーク(会社のロゴ)等の被写体を検出するための特徴量を示す情報である。本実施形態では、人物及びマークは、特定の人物及びマークではなく、一般的な人物及びマークである。特徴情報記憶部122は、代表的又は平均的な1人又は複数の人物の特徴情報Cを記憶している。また、特徴情報記憶部122は、代表的又は平均的な1つ又は複数のマークの特徴情報Cを記憶している。 FIG. 4 is a schematic diagram of the feature information C stored in the feature information storage unit 122. The feature information C is information indicating a feature amount for detecting a subject such as a person or a mark (company logo) in an image. In this embodiment, the person and mark are not a specific person and mark, but a general person and mark. The feature information storage unit 122 stores the feature information C of one or more representative or average persons. Further, the feature information storage unit 122 stores the feature information C of one or a plurality of representative or average marks.

特徴情報Cは、種別C1と、種別C1に関連付けられた特徴量C2とを示す。種別C1は、人物、マーク等の種別である。特徴量C2は、人物(人物の顔)又はマーク(マークの全体)を検出するための特徴を表す値である。特徴量C2は、人物又はマークを含む画像(テンプレート画像)の複数の画素の輝度値の分布であってもよい。また、特徴量C2は、人物又はマークを含む画像における所定の部位(例えば人物の目、鼻、口や、マークの輪郭等)の相対的な位置であってもよい。 The feature information C indicates the type C1 and the feature amount C2 associated with the type C1. The type C1 is a type such as a person or a mark. The feature amount C2 is a value representing a feature for detecting a person (person's face) or a mark (whole mark). The feature amount C2 may be a distribution of luminance values of a plurality of pixels of an image (template image) including a person or a mark. Further, the feature amount C2 may be a relative position of a predetermined portion (for example, the eyes, nose, mouth, outline of the mark, etc. of the person) in the image including the person or the mark.

また、特徴量C2は、人物又はマークを含む画像の複数の画素の輝度値から所定の規則に従って算出した値(例えばHOG特徴量、Haar-Like特徴量)であってもよい。また、特徴量C2は、ディープラーニング(ディープニューラルネットワーク)によって人物又はマークを含む画像から自動的に抽出された特徴量であってもよい。特徴量C2は、ここに示した具体的な値に限定されず、画像に写っている人物、マーク等の被写体を検出可能なその他の値であってもよい。 Further, the feature amount C2 may be a value calculated according to a predetermined rule from the luminance values of a plurality of pixels of an image including a person or a mark (for example, a HOG feature amount, a Haar-Like feature amount). Further, the feature amount C2 may be a feature amount automatically extracted from an image including a person or a mark by deep learning (deep neural network). The feature amount C2 is not limited to the specific value shown here, and may be another value capable of detecting a subject such as a person or a mark in an image.

図4において特徴情報Cは視認性のために文字列の表で表されているが、各データは任意の形式で記録されてもよく、例えば文字列データ、数値データおよびバイナリデータのいずれでもよい。特徴情報Cは、データベースとして記録されてもよく、あるいはデータを列挙したリストとして記録されてもよい。 In FIG. 4, the feature information C is represented by a table of character strings for visibility, but each data may be recorded in any format, and may be, for example, any of character string data, numerical data, and binary data. .. The feature information C may be recorded as a database or may be recorded as a list listing data.

図5(a)、図5(b)は、範囲特定部113及び部分画像生成部114が画像B1に基づいて部分画像A1を生成する方法の模式図である。図5(a)は画像B1に基づいて人物を含む部分画像A1を生成する例を表しており、図5(b)は画像B1に基づいてマークを含む部分画像A1を生成する例を表している。 5 (a) and 5 (b) are schematic views of a method in which the range specifying unit 113 and the partial image generation unit 114 generate the partial image A1 based on the image B1. FIG. 5A shows an example of generating a partial image A1 including a person based on the image B1, and FIG. 5B shows an example of generating a partial image A1 including a mark based on the image B1. There is.

まず範囲特定部113は、画像B1の中で1つの位置を含む所定範囲において、特徴情報Cの特徴量C2と同様の方法で特徴量を算出する。範囲特定部113は、特徴情報記憶部122に記憶された各特徴情報Cの特徴量C2(すなわち基準特徴量)と、算出した特徴量とを比較する。そしていずれかの特徴情報Cの特徴量C2と、算出した特徴量との関係が所定の条件を満たす場合に、範囲特定部113は、人物又はマークを検出する。例えば範囲特定部113は、特徴情報Cの特徴量C2と、算出した特徴量との間の類似度(ユークリッド距離等)を算出し、算出した類似度が所定値以上である場合に、人物又はマークを検出する。 First, the range specifying unit 113 calculates the feature amount in the predetermined range including one position in the image B1 by the same method as the feature amount C2 of the feature information C. The range specifying unit 113 compares the feature amount C2 (that is, the reference feature amount) of each feature information C stored in the feature information storage unit 122 with the calculated feature amount. Then, when the relationship between the feature amount C2 of any of the feature information C and the calculated feature amount satisfies a predetermined condition, the range specifying unit 113 detects a person or a mark. For example, the range specifying unit 113 calculates the similarity (Euclidean distance, etc.) between the feature amount C2 of the feature information C and the calculated feature amount, and when the calculated similarity is equal to or more than a predetermined value, the person or Detect the mark.

範囲特定部113は、画像B1の中の各位置について特徴量の算出と人物又はマークの検出とを繰り返し、人物又はマークを検出した位置を記録する。範囲特定部113は、所定数の人物又はマークが検出された時点で、人物又はマークの検出を終了してもよい。そして範囲特定部113は、画像B1の中で人物又はマークを検出した位置を含む所定の大きさの範囲Rを特定する。 The range specifying unit 113 repeats the calculation of the feature amount and the detection of the person or the mark for each position in the image B1 and records the position where the person or the mark is detected. The range specifying unit 113 may end the detection of the person or the mark when a predetermined number of people or the mark are detected. Then, the range specifying unit 113 specifies a range R having a predetermined size including a position where a person or a mark is detected in the image B1.

範囲特定部113は、画像B1の中で複数の人物又はマークを検出した場合に、複数の人物又はマークを含むように、あるいは複数の人物又はマークから選択した1つの人物又はマークを含むように、範囲Rを特定する。 When a plurality of persons or marks are detected in the image B1, the range specifying unit 113 includes a plurality of persons or marks, or includes one person or mark selected from a plurality of persons or marks. , Specify the range R.

図6(a)は、画像B1の中で複数の人物又はマークが検出された場合に複数の人物又はマークを含む範囲Rを特定する方法の模式図である。範囲特定部113は、画像B1の中で複数の人物又はマークを検出した場合に、複数の人物又はマークの位置の中心点R1(例えば重心)を算出する。そして範囲特定部113は、中心点R1を含む所定の大きさの範囲Rを特定する。このとき範囲特定部113は、中心点R1を含む範囲Rが複数の人物又はマークを含むように、範囲Rの大きさを変更してもよい。これにより、配信サーバ1は、画像B1の中で複数の人物又はマークを含む部分画像A1を生成できる。 FIG. 6A is a schematic diagram of a method of specifying a range R including a plurality of persons or marks when a plurality of persons or marks are detected in the image B1. When a plurality of persons or marks are detected in the image B1, the range specifying unit 113 calculates the center point R1 (for example, the center of gravity) of the positions of the plurality of persons or marks. Then, the range specifying unit 113 specifies a range R having a predetermined size including the center point R1. At this time, the range specifying unit 113 may change the size of the range R so that the range R including the center point R1 includes a plurality of persons or marks. As a result, the distribution server 1 can generate a partial image A1 including a plurality of people or marks in the image B1.

図6(b)は、画像B1の中で複数の人物又はマークが検出された場合に複数の人物又はマークから選択した1つの人物又はマークを含む範囲Rを特定する方法の模式図である。範囲特定部113は、画像B1の中で複数の人物又はマークを検出した場合に、複数の人物又はマークの相対的な位置関係に基づいて、複数の人物又はマークのうちいずれか1つの人物又はマークを選択する。例えば範囲特定部113は、画像B1の中で複数の人物又はマークを検出した場合に、複数の人物又はマークのうち最も上に位置する人物又はマークを選択する。これにより、配信サーバ1は、画像B1に複数の人物又はマークが含まれる場合に、1つの人物又はマークを選択的に含む部分画像A1を生成できる。 FIG. 6B is a schematic diagram of a method of specifying a range R including one person or mark selected from a plurality of people or marks when a plurality of people or marks are detected in the image B1. When the range specifying unit 113 detects a plurality of persons or marks in the image B1, any one of the plurality of persons or marks or one of the plurality of persons or marks is based on the relative positional relationship between the plurality of persons or marks. Select a mark. For example, when a plurality of persons or marks are detected in the image B1, the range specifying unit 113 selects the person or mark located at the top of the plurality of persons or marks. As a result, the distribution server 1 can generate a partial image A1 that selectively includes one person or mark when the image B1 includes a plurality of people or marks.

範囲特定部113は、常に1つの人物又はマークを選択してもよく、あるいは複数の人物又はマークの間の距離が所定値以上の場合に1つの人物又はマークを選択してもよい。また、範囲特定部113は、画像B1の中で人物及びマークの両方を検出した場合に、人物を優先的に選択してもよく、あるいはマークを優先的に選択してもよい。 The range specifying unit 113 may always select one person or mark, or may select one person or mark when the distance between the plurality of persons or marks is a predetermined value or more. Further, when both the person and the mark are detected in the image B1, the range specifying unit 113 may preferentially select the person or may preferentially select the mark.

部分画像生成部114は、画像B1の中で、範囲特定部113が特定した範囲Rを切り出すことによって部分画像A1を生成し、元の画像B1を含むコンテンツと関連付けてコンテンツ記憶部121に記憶させる。送信部115は、部分画像A1及び見出しA2を含む一覧画面Aを表示するための情報を表示端末2へ送信する。表示端末2は、配信サーバ1から受信した情報に基づいて、表示部21上に図3(a)に例示した一覧画面Aを表示する。 The partial image generation unit 114 generates a partial image A1 by cutting out a range R specified by the range specifying unit 113 in the image B1, and stores the partial image A1 in the content storage unit 121 in association with the content including the original image B1. .. The transmission unit 115 transmits information for displaying the list screen A including the partial image A1 and the heading A2 to the display terminal 2. The display terminal 2 displays the list screen A illustrated in FIG. 3A on the display unit 21 based on the information received from the distribution server 1.

表示端末2のユーザは、詳細画面Bを閲覧したい場合に、操作部22を用いて詳細画面Bを表示するための操作を行う。詳細画面Bを表示するための操作は、一覧画面Aの中でいずれか1つの部分画像A1又は見出しA2を選択する操作である。表示端末2は、選択された部分画像A1又は見出しA2に関連付けられたコンテンツを示す情報を、配信サーバ1へ送信する。 When the user of the display terminal 2 wants to view the detail screen B, he / she performs an operation for displaying the detail screen B by using the operation unit 22. The operation for displaying the detail screen B is an operation for selecting any one of the partial images A1 or the heading A2 in the list screen A. The display terminal 2 transmits information indicating the content associated with the selected partial image A1 or the heading A2 to the distribution server 1.

配信サーバ1において、操作受付部111は、選択された部分画像A1又は見出しA2に関連付けられたコンテンツを示す情報を表示端末2から受信して受け付ける。コンテンツ取得部112は、操作受付部111が受け付けた情報が示すコンテンツに関連付けられた、画像B1のデータと、文章B2のデータとを、コンテンツ記憶部121から取得する。 In the distribution server 1, the operation receiving unit 111 receives and receives information indicating the content associated with the selected partial image A1 or the heading A2 from the display terminal 2. The content acquisition unit 112 acquires the data of the image B1 and the data of the sentence B2 associated with the content indicated by the information received by the operation reception unit 111 from the content storage unit 121.

送信部115は、画像B1及び文章B2を含む詳細画面Bを表示するための情報を表示端末2へ送信する。表示端末2は、配信サーバ1から受信した情報に基づいて、表示部21上に図3(b)に例示した詳細画面Bを表示する。 The transmission unit 115 transmits information for displaying the detail screen B including the image B1 and the text B2 to the display terminal 2. The display terminal 2 displays the detailed screen B illustrated in FIG. 3B on the display unit 21 based on the information received from the distribution server 1.

このように、配信サーバ1は、画像B1の中で人物又はマークを含む範囲Rを特定して部分画像A1に反映するため、ユーザにとってコンテンツの内容がわかりやすい部分画像A1を生成し、表示端末2へ送信できる。 In this way, since the distribution server 1 identifies the range R including the person or the mark in the image B1 and reflects it in the partial image A1, the distribution server 1 generates the partial image A1 in which the content of the content is easy for the user to understand, and the display terminal 2 Can be sent to.

[配信方法のフローチャート]
図7は、本実施形態に係る配信方法のフローチャートを示す図である。まず表示端末2のユーザは、一覧画面Aを閲覧したい場合に操作部22を用いて一覧画面Aを表示するための操作を行い、詳細画面Bを閲覧したい場合に操作部22を用いて詳細画面Bを表示するための操作を行う。配信サーバ1において、操作受付部111は、ユーザによる操作を示す情報を表示端末2から受信して受け付ける(S11)。
[Flowchart of delivery method]
FIG. 7 is a diagram showing a flowchart of the distribution method according to the present embodiment. First, the user of the display terminal 2 performs an operation for displaying the list screen A using the operation unit 22 when he / she wants to view the list screen A, and uses the operation unit 22 when he / she wants to view the detail screen B. Perform an operation to display B. In the distribution server 1, the operation receiving unit 111 receives and receives information indicating an operation by the user from the display terminal 2 (S11).

操作受付部111が一覧画面Aを表示するための操作を受け付けた場合に(S12のYES)、コンテンツ取得部112は、一覧画面Aに表示される1つ以上のコンテンツに関連付けられた、部分画像A1のデータと、見出しA2のデータとを、コンテンツ記憶部121から取得する(S13)。 When the operation reception unit 111 receives an operation for displaying the list screen A (YES in S12), the content acquisition unit 112 is a partial image associated with one or more contents displayed on the list screen A. The data of A1 and the data of the heading A2 are acquired from the content storage unit 121 (S13).

コンテンツ取得部112が部分画像A1を取得できた場合に(S14のYES)、配信サーバ1はS18へ進む。コンテンツ取得部112が部分画像A1を取得できなかった場合に(S14のNO)、範囲特定部113は、一覧画面Aに表示されるコンテンツに含まれる画像B1のデータをコンテンツ記憶部121から取得するとともに、特徴情報Cを特徴情報記憶部122から取得する。 When the content acquisition unit 112 can acquire the partial image A1 (YES in S14), the distribution server 1 proceeds to S18. When the content acquisition unit 112 cannot acquire the partial image A1 (NO in S14), the range specifying unit 113 acquires the data of the image B1 included in the content displayed on the list screen A from the content storage unit 121. At the same time, the feature information C is acquired from the feature information storage unit 122.

範囲特定部113は、取得した画像B1を用いて特徴量を算出し、特徴情報記憶部122に記憶された各特徴情報Cの特徴量C2(すなわち基準特徴量)と、算出した特徴量とを比較する。そしていずれかの特徴情報Cの特徴量C2と、算出した特徴量との関係が所定の条件を満たす場合に、範囲特定部113は、人物又はマークを検出する(S15)。 The range specifying unit 113 calculates the feature amount using the acquired image B1, and sets the feature amount C2 (that is, the reference feature amount) of each feature information C stored in the feature information storage unit 122 and the calculated feature amount. Compare. Then, when the relationship between the feature amount C2 of any of the feature information C and the calculated feature amount satisfies a predetermined condition, the range specifying unit 113 detects a person or a mark (S15).

範囲特定部113は、画像B1の中で人物又はマークを検出した位置を含む所定の大きさの範囲Rを特定する(S16)。部分画像生成部114は、画像B1の中で、範囲特定部113が特定した範囲Rを切り出すことによって部分画像A1を生成し、元の画像B1を含むコンテンツと関連付けてコンテンツ記憶部121に記憶させる(S17)。 The range specifying unit 113 specifies a range R having a predetermined size including a position where a person or a mark is detected in the image B1 (S16). The partial image generation unit 114 generates a partial image A1 by cutting out a range R specified by the range specifying unit 113 in the image B1, and stores the partial image A1 in the content storage unit 121 in association with the content including the original image B1. (S17).

送信部115は、ステップS13でコンテンツ取得部112が取得した部分画像A1又はステップS17で部分画像生成部114が生成した部分画像A1と、ステップS13でコンテンツ取得部112が取得した見出しA2とを含む一覧画面Aを表示するための情報を表示端末2へ送信する(S18)。表示端末2は、配信サーバ1から受信した情報に基づいて、一覧画面Aを表示部21上に表示する。 The transmission unit 115 includes a partial image A1 acquired by the content acquisition unit 112 in step S13, a partial image A1 generated by the partial image generation unit 114 in step S17, and a heading A2 acquired by the content acquisition unit 112 in step S13. Information for displaying the list screen A is transmitted to the display terminal 2 (S18). The display terminal 2 displays the list screen A on the display unit 21 based on the information received from the distribution server 1.

操作受付部111が詳細画面Bを表示するための操作を受け付けた場合に(S12のNO)、コンテンツ取得部112は、操作受付部111が受け付けた情報が示すコンテンツに関連付けられた、画像B1のデータと、文章B2のデータとを、コンテンツ記憶部121から取得する(S19)。 When the operation reception unit 111 receives an operation for displaying the detail screen B (NO in S12), the content acquisition unit 112 of the image B1 associated with the content indicated by the information received by the operation reception unit 111. The data and the data of the sentence B2 are acquired from the content storage unit 121 (S19).

送信部115は、ステップS19でコンテンツ取得部112が取得した画像B1及び文章B2を含む詳細画面Bを表示するための情報を表示端末2へ送信する(S20)。表示端末2は、配信サーバ1から受信した情報に基づいて、詳細画面Bを表示部21上に表示する。 The transmission unit 115 transmits information for displaying the detail screen B including the image B1 and the text B2 acquired by the content acquisition unit 112 in step S19 to the display terminal 2 (S20). The display terminal 2 displays the detail screen B on the display unit 21 based on the information received from the distribution server 1.

図7に例示したフローチャートにおいて、配信サーバ1は、一覧画面Aを表示するタイミングで一覧画面Aに含まれるコンテンツの画像B1について部分画像A1を生成し、一覧画面Aに含まれないコンテンツの画像B1については部分画像A1を生成しない。そのため、配信サーバ1は、コンテンツ記憶部121が部分画像A1を記憶するために必要な容量を削減できる。別の方法として、配信サーバ1は、画像B1をコンテンツ記憶部121に記憶するタイミングで全ての画像B1について部分画像A1を生成してもよい。この場合には、配信サーバ1は、一覧画面Aを表示する際に部分画像A1を生成する処理を行わないため、表示に掛かる時間を短縮できる。 In the flowchart illustrated in FIG. 7, the distribution server 1 generates a partial image A1 for the image B1 of the content included in the list screen A at the timing of displaying the list screen A, and the image B1 of the content not included in the list screen A. Does not generate a partial image A1. Therefore, the distribution server 1 can reduce the capacity required for the content storage unit 121 to store the partial image A1. Alternatively, the distribution server 1 may generate partial images A1 for all images B1 at the timing of storing the images B1 in the content storage unit 121. In this case, since the distribution server 1 does not perform the process of generating the partial image A1 when displaying the list screen A, the time required for display can be shortened.

[実施形態の効果]
本実施形態に係る配信サーバ1は、画像B1の中で人物又はマークを含む範囲Rを特定し、画像B1から範囲Rを切り出すことによって部分画像A1を生成して送信する。そのため、部分画像A1にコンテンツの内容に関連する被写体が含まれる蓋然性が高くなり、ユーザに対してコンテンツの内容がわかりやすい部分画像A1を提供できる。
[Effect of embodiment]
The distribution server 1 according to the present embodiment identifies a range R including a person or a mark in the image B1 and cuts out the range R from the image B1 to generate and transmit a partial image A1. Therefore, it is highly probable that the partial image A1 includes a subject related to the content of the content, and the partial image A1 in which the content of the content is easy to understand can be provided to the user.

[変形例]
上述の例では配信サーバ1が部分画像A1を生成しているが、表示端末2が部分画像A1を生成してもよい。この場合に、表示端末2は、上述の操作受付部111、コンテンツ取得部112、範囲特定部113及び部分画像生成部114を有する制御部11を備える。コンテンツ記憶部121及び特徴情報記憶部122のデータは、配信サーバ1の記憶部12に記憶されてもよく、表示端末2の記憶部に記憶されてもよい。
[Modification example]
In the above example, the distribution server 1 generates the partial image A1, but the display terminal 2 may generate the partial image A1. In this case, the display terminal 2 includes a control unit 11 having the above-mentioned operation reception unit 111, content acquisition unit 112, range specifying unit 113, and partial image generation unit 114. The data of the content storage unit 121 and the feature information storage unit 122 may be stored in the storage unit 12 of the distribution server 1 or may be stored in the storage unit of the display terminal 2.

本変形例に係る表示端末2において、操作受付部111は、一覧画面Aを表示するための操作を示す情報を操作部22から受け付ける。コンテンツ取得部112は、操作受付部111が一覧画面Aを表示するための操作を示す情報を受け付けた場合に、一覧画面Aに表示される1つ以上のコンテンツに関連付けられた、部分画像A1のデータと、見出しA2のデータとを、配信サーバ1から受信して取得する。 In the display terminal 2 according to this modification, the operation reception unit 111 receives information indicating an operation for displaying the list screen A from the operation unit 22. The content acquisition unit 112 of the partial image A1 associated with one or more contents displayed on the list screen A when the operation reception unit 111 receives information indicating an operation for displaying the list screen A. The data and the data of the heading A2 are received from the distribution server 1 and acquired.

一覧画面Aに表示されるコンテンツに関連付けられた部分画像A1のデータがコンテンツ記憶部121に記憶されていない場合に、コンテンツ取得部112は、一覧画面Aに表示されるコンテンツに含まれる画像B1のデータを、配信サーバ1から受信して取得する。範囲特定部113及び部分画像生成部114は、上述の方法によって、あるいは後述の第2の実施形態又は第3の実施形態に係る方法によって、画像B1に基づいて部分画像A1を生成する。 When the data of the partial image A1 associated with the content displayed on the list screen A is not stored in the content storage unit 121, the content acquisition unit 112 is the image B1 included in the content displayed on the list screen A. Data is received from the distribution server 1 and acquired. The range specifying unit 113 and the partial image generation unit 114 generate the partial image A1 based on the image B1 by the method described above, or by the method according to the second embodiment or the third embodiment described later.

表示部21は、配信サーバ1から受信した情報と、範囲特定部113及び部分画像生成部114が生成した部分画像A1とに基づいて、図3(a)に例示した一覧画面Aを表示する。 The display unit 21 displays the list screen A illustrated in FIG. 3A based on the information received from the distribution server 1 and the partial image A1 generated by the range specifying unit 113 and the partial image generation unit 114.

また、操作受付部111は、一覧画面Aにおいて選択された部分画像A1又は見出しA2に関連付けられたコンテンツを示す情報を操作部22から受け付ける。コンテンツ取得部112は、操作受付部111が受け付けた情報が示すコンテンツに関連付けられた、画像B1のデータと、文章B2のデータとを、配信サーバ1から受信して取得する。 Further, the operation reception unit 111 receives information indicating the content associated with the partial image A1 or the heading A2 selected on the list screen A from the operation reception unit 22. The content acquisition unit 112 receives and acquires the data of the image B1 and the data of the sentence B2 associated with the content indicated by the information received by the operation reception unit 111 from the distribution server 1.

表示部21は、配信サーバ1から受信した情報に基づいて、図3(b)に例示した詳細画面Bを表示する。 The display unit 21 displays the detailed screen B illustrated in FIG. 3B based on the information received from the distribution server 1.

このように、表示端末2が画像B1に基づいて部分画像A1を生成して表示することによって、表示端末2の計算リソースを活用できる。 In this way, the display terminal 2 can utilize the computational resources of the display terminal 2 by generating and displaying the partial image A1 based on the image B1.

(第2の実施形態)
第1の実施形態に係る配信サーバ1は一般的な人物及びマークを検出することによって部分画像A1を生成するのに対して、本実施形態に係る配信サーバ1は画像の中で特定の人物及びマークを認識することによって部分画像A1を生成する。以下では第1の実施形態と異なる点を主に説明する。
(Second embodiment)
The distribution server 1 according to the first embodiment generates a partial image A1 by detecting a general person and a mark, whereas the distribution server 1 according to the present embodiment has a specific person and a specific person in the image. The partial image A1 is generated by recognizing the mark. Hereinafter, the differences from the first embodiment will be mainly described.

図8は、本実施形態に係る配信システムSのブロック図である。本実施形態に係る配信サーバ1の記憶部12は、コンテンツ記憶部121及び特徴情報記憶部122に加えて、ユーザ情報記憶部123を有する。ユーザ情報記憶部123は、表示端末2のユーザに関する情報を示すユーザ情報のデータを記憶する。ユーザ情報記憶部123は、記憶部12上の記憶領域であってもよく、あるいは記憶部12上で構成されたデータベースであってもよい。 FIG. 8 is a block diagram of the distribution system S according to the present embodiment. The storage unit 12 of the distribution server 1 according to the present embodiment has a user information storage unit 123 in addition to the content storage unit 121 and the feature information storage unit 122. The user information storage unit 123 stores user information data indicating information about the user of the display terminal 2. The user information storage unit 123 may be a storage area on the storage unit 12, or may be a database configured on the storage unit 12.

図9は、特徴情報記憶部122が記憶している特徴情報Cの模式図である。特徴情報Cは、画像の中で人物、マーク等の被写体を検出するための特徴量を示す情報である。本実施形態では、人物及びマークは、特定の人物(すなわち個人)及び特定のマーク(すなわち特定の会社のロゴ等)である。特徴情報記憶部122は、特定の1人又は複数の人物の特徴情報Cを記憶している。また、特徴情報記憶部122は、特定の1つ又は複数のマークの特徴情報Cを記憶している。 FIG. 9 is a schematic diagram of the feature information C stored in the feature information storage unit 122. The feature information C is information indicating a feature amount for detecting a subject such as a person or a mark in an image. In the present embodiment, the person and the mark are a specific person (that is, an individual) and a specific mark (that is, a logo of a specific company, etc.). The feature information storage unit 122 stores the feature information C of a specific person or a plurality of persons. Further, the feature information storage unit 122 stores the feature information C of a specific one or a plurality of marks.

特徴情報Cは、名称C3と、名称C3に関連付けられた特徴量C2とを示す。名称C3は、人物の名称(氏名、愛称等)、集団の名称(会社名、略称等)である。特徴量C2の定義は、第1の実施形態と同様である。 The feature information C indicates the name C3 and the feature amount C2 associated with the name C3. The name C3 is the name of a person (name, nickname, etc.) and the name of a group (company name, abbreviation, etc.). The definition of the feature amount C2 is the same as that of the first embodiment.

図10は、ユーザ情報記憶部123が記憶しているユーザ情報Dの模式図である。ユーザ情報Dは、表示端末2のユーザに関する情報である。ユーザ情報記憶部123は、各ユーザのユーザ情報Dを予め記憶している。 FIG. 10 is a schematic diagram of the user information D stored in the user information storage unit 123. The user information D is information about the user of the display terminal 2. The user information storage unit 123 stores the user information D of each user in advance.

ユーザ情報Dは、ユーザの識別情報D1と、嗜好D2とを示す。識別情報D1は、ユーザを識別するための識別情報(ユーザID、電話番号、メールアドレス等)である。嗜好D2は、ユーザが好む人物又は集団の名称である。 The user information D indicates the user's identification information D1 and the preference D2. The identification information D1 is identification information (user ID, telephone number, e-mail address, etc.) for identifying the user. Preference D2 is the name of a person or group preferred by the user.

配信サーバ1は、ユーザが過去に詳細画面Bのコンテンツを閲覧した履歴に基づいて、嗜好D2を判定してもよい。例えば配信サーバ1は、1人のユーザがある人物又は集団の名称を含むコンテンツを所定回数以上表示した場合に、該ユーザの識別情報D1と、該人物又は集団の名称を示す嗜好D2とを関連付けて、ユーザ情報Dとしてユーザ情報記憶部123に記憶させる。 The distribution server 1 may determine the preference D2 based on the history of the user browsing the content of the detail screen B in the past. For example, when one user displays content including the name of a certain person or group a predetermined number of times or more, the distribution server 1 associates the identification information D1 of the user with the preference D2 indicating the name of the person or group. Then, it is stored in the user information storage unit 123 as the user information D.

また、配信サーバ1は、ユーザに対して好みの人物又は集団の名称を回答させるアンケートを取り、該ユーザの識別情報D1と、該人物又は集団の名称を示す嗜好D2とを関連付けて、ユーザ情報Dとしてユーザ情報記憶部123に記憶させてもよい。 Further, the distribution server 1 takes a questionnaire to ask the user to answer the name of the person or group of preference, associates the identification information D1 of the user with the preference D2 indicating the name of the person or group, and user information. It may be stored in the user information storage unit 123 as D.

図9、図10において特徴情報C及びユーザ情報Dは視認性のために文字列の表で表されているが、各データは任意の形式で記録されてもよく、例えば文字列データ、数値データおよびバイナリデータのいずれでもよい。特徴情報C及びユーザ情報Dは、データベースとして記録されてもよく、あるいはデータを列挙したリストとして記録されてもよい。 In FIGS. 9 and 10, the feature information C and the user information D are represented by a table of character strings for visibility, but each data may be recorded in any format, for example, character string data and numerical data. And binary data. The feature information C and the user information D may be recorded as a database or may be recorded as a list listing data.

図11(a)、図11(b)、図11(c)は、範囲特定部113及び部分画像生成部114が画像B1に基づいて部分画像A1を生成する方法の模式図である。図11(a)、図11(b)は、画像B1及び文章B2に基づいて人物又はマークを含む部分画像A1を生成する方法を表している。まず範囲特定部113は、一覧画面Aに表示されるコンテンツに含まれる画像B1及び文章B2のデータをコンテンツ記憶部121から取得するとともに、特徴情報Cを特徴情報記憶部122から取得する。 11 (a), 11 (b), and 11 (c) are schematic views of a method in which the range specifying unit 113 and the partial image generation unit 114 generate the partial image A1 based on the image B1. 11 (a) and 11 (b) show a method of generating a partial image A1 including a person or a mark based on the image B1 and the sentence B2. First, the range specifying unit 113 acquires the data of the image B1 and the sentence B2 included in the content displayed on the list screen A from the content storage unit 121, and acquires the feature information C from the feature information storage unit 122.

範囲特定部113は、文章B2を読み込み、文章B2に含まれている名称C3を検出する。範囲特定部113は、文章B2に含まれている名称C3に関連付けられた特徴量C2を、特徴情報Cから取得する。範囲特定部113は、文章B2に含まれている名称C3に関連付けられた特徴量C2(すなわち基準特徴量)と、画像B1の中の各位置について算出した特徴量とを比較することによって、人物又はマークを検出する。そして範囲特定部113は、画像B1の中で人物又はマークを検出した位置を含む所定の大きさの範囲Rを特定する。 The range specifying unit 113 reads the sentence B2 and detects the name C3 included in the sentence B2. The range specifying unit 113 acquires the feature amount C2 associated with the name C3 included in the sentence B2 from the feature information C. The range specifying unit 113 compares the feature amount C2 (that is, the reference feature amount) associated with the name C3 included in the sentence B2 with the feature amount calculated for each position in the image B1 to be a person. Or detect the mark. Then, the range specifying unit 113 specifies a range R having a predetermined size including a position where a person or a mark is detected in the image B1.

図11(a)は文章B2に人物の名称が含まれていた場合の例を示しており、範囲特定部113は画像B1の中で該人物の顔を含む範囲Rを特定している。図11(b)は文章B2に集団の名称が含まれていた場合の例を示しており、範囲特定部113は画像B1の中で該集団のマークを含む範囲Rを特定している。 FIG. 11A shows an example in which the name of the person is included in the sentence B2, and the range specifying unit 113 specifies the range R including the face of the person in the image B1. FIG. 11B shows an example in the case where the name of the group is included in the sentence B2, and the range specifying unit 113 specifies the range R including the mark of the group in the image B1.

部分画像生成部114は、画像B1の中で、範囲特定部113が特定した範囲Rを切り出すことによって部分画像A1を生成し、元の画像B1を含むコンテンツと関連付けてコンテンツ記憶部121に記憶させる。このように、配信サーバ1は、文章B2に含まれる人物又は集団の名称に対応する人物又はマークを含む範囲Rを画像B1の中で特定して部分画像A1に反映するため、ユーザにとってコンテンツの内容がわかりやすいだけでなくコンテンツの文章B2の内容に合致した部分画像A1を生成し、表示端末2へ送信できる。 The partial image generation unit 114 generates a partial image A1 by cutting out a range R specified by the range specifying unit 113 in the image B1, and stores the partial image A1 in the content storage unit 121 in association with the content including the original image B1. .. As described above, since the distribution server 1 specifies the range R including the person or mark corresponding to the name of the person or group included in the sentence B2 in the image B1 and reflects it in the partial image A1, the content for the user. Not only is the content easy to understand, but a partial image A1 that matches the content of the text B2 of the content can be generated and transmitted to the display terminal 2.

ここでは範囲特定部113は文章B2に含まれている名称C3を検出した後に名称C3に対応する人物又はマークを画像B1の中で検出する処理を説明したが、逆に画像B1の中で複数の人物又はマークを検出した後に文章B2に含まれている名称C3に対応する人物又はマークを選択してもよい。この場合に、まず範囲特定部113は、画像B1の中で1つ又は複数の人物又はマークを検出する。画像B1の中で1つの人物又はマークを検出した場合に、範囲特定部113は、該1つの人物又はマークを含む範囲Rを特定する。 Here, the range specifying unit 113 has described the process of detecting the person or mark corresponding to the name C3 in the image B1 after detecting the name C3 included in the sentence B2, but conversely, a plurality of people in the image B1. After detecting the person or mark of, the person or mark corresponding to the name C3 included in the sentence B2 may be selected. In this case, first, the range specifying unit 113 detects one or a plurality of persons or marks in the image B1. When one person or mark is detected in the image B1, the range specifying unit 113 specifies the range R including the one person or mark.

画像B1の中で複数の人物又はマークを検出した場合に、範囲特定部113は、検出した複数の人物又はマークのそれぞれについて特徴情報Cが示す名称C3を取得する。そして範囲特定部113は、検出した複数の人物又はマークに対応する名称C3それぞれについて、文章B2に含まれているか否かを判定する。そして範囲特定部113は、文章B2に含まれている名称C3に対応する1つ又は複数の人物又はマークを含む範囲Rを特定する。このような処理によっても、配信サーバ1は、コンテンツの文章B2の内容に合致した部分画像A1を生成し、表示端末2へ送信できる。 When a plurality of persons or marks are detected in the image B1, the range specifying unit 113 acquires the name C3 indicated by the feature information C for each of the detected plurality of persons or marks. Then, the range specifying unit 113 determines whether or not each of the detected plurality of persons or the names C3 corresponding to the marks is included in the sentence B2. Then, the range specifying unit 113 specifies a range R including one or a plurality of persons or marks corresponding to the name C3 included in the sentence B2. Even by such processing, the distribution server 1 can generate a partial image A1 that matches the content of the text B2 of the content and transmit it to the display terminal 2.

図11(c)は、画像B1及びユーザ情報Dに基づいて人物又はマークを含む部分画像A1を生成する方法を表している。まず範囲特定部113は、一覧画面Aに表示されるコンテンツに含まれる画像B1のデータをコンテンツ記憶部121から取得し、特徴情報Cを特徴情報記憶部122から取得するとともに、ユーザ情報Dをユーザ情報記憶部123から取得する。 FIG. 11C shows a method of generating a partial image A1 including a person or a mark based on the image B1 and the user information D. First, the range specifying unit 113 acquires the data of the image B1 included in the content displayed on the list screen A from the content storage unit 121, acquires the feature information C from the feature information storage unit 122, and obtains the user information D from the user. Obtained from the information storage unit 123.

範囲特定部113は、ユーザ情報Dが示す嗜好D2に合致する名称C3に関連付けられた特徴量C2を、特徴情報Cから取得する。範囲特定部113は、嗜好D2に合致する名称C3に関連付けられた特徴量C2(すなわち基準特徴量)と、画像B1の中の各位置について算出した特徴量とを比較することによって、人物又はマークを検出する。そして範囲特定部113は、画像B1の中で人物又はマークを検出した位置を含む所定の大きさの範囲Rを特定する。 The range specifying unit 113 acquires the feature amount C2 associated with the name C3 that matches the preference D2 indicated by the user information D from the feature information C. The range specifying unit 113 compares the feature amount C2 (that is, the reference feature amount) associated with the name C3 that matches the preference D2 with the feature amount calculated for each position in the image B1 to obtain a person or a mark. Is detected. Then, the range specifying unit 113 specifies a range R having a predetermined size including a position where a person or a mark is detected in the image B1.

図11(c)はユーザの嗜好D2に合致する人物が画像B1に含まれている場合の例を示しており、範囲特定部113は画像B1の中で該人物の顔を含む範囲Rを特定している。 FIG. 11C shows an example in which a person matching the user's preference D2 is included in the image B1, and the range specifying unit 113 specifies a range R including the face of the person in the image B1. is doing.

部分画像生成部114は、画像B1の中で、範囲特定部113が特定した範囲Rを切り出すことによって部分画像A1を生成し、元の画像B1を含むコンテンツと関連付けてコンテンツ記憶部121に記憶させる。このように、配信サーバ1は、ユーザの嗜好D2に合致する人物又は集団の名称に対応する人物又はマークを含む範囲Rを画像B1の中で特定して部分画像A1に反映するため、ユーザにとってコンテンツの内容がわかりやすいだけでなくユーザの嗜好D2に合致した部分画像A1を生成し、表示端末2へ送信できる。 The partial image generation unit 114 generates a partial image A1 by cutting out a range R specified by the range specifying unit 113 in the image B1, and stores the partial image A1 in the content storage unit 121 in association with the content including the original image B1. .. As described above, the distribution server 1 specifies the range R including the person or mark corresponding to the name of the person or group that matches the user's preference D2 in the image B1 and reflects it in the partial image A1. Not only is the content easy to understand, but a partial image A1 that matches the user's preference D2 can be generated and transmitted to the display terminal 2.

ここでは範囲特定部113はユーザの嗜好D2に合致する名称C3を検出した後に名称C3に対応する人物又はマークを画像B1の中で検出する処理を説明したが、逆に画像B1の中で複数の人物又はマークを検出した後にユーザの嗜好D2に合致する名称C3に対応する人物又はマークを選択してもよい。この場合に、まず範囲特定部113は、画像B1の中で1つ又は複数の人物又はマークを検出する。画像B1の中で1つの人物又はマークを検出した場合に、範囲特定部113は、該1つの人物又はマークを含む範囲Rを特定する。 Here, the range specifying unit 113 has described the process of detecting the person or mark corresponding to the name C3 in the image B1 after detecting the name C3 that matches the user's preference D2, but conversely, a plurality of people in the image B1. After detecting the person or mark of, the person or mark corresponding to the name C3 that matches the user's preference D2 may be selected. In this case, first, the range specifying unit 113 detects one or a plurality of persons or marks in the image B1. When one person or mark is detected in the image B1, the range specifying unit 113 specifies the range R including the one person or mark.

画像B1の中で複数の人物又はマークを検出した場合に、範囲特定部113は、検出した複数の人物又はマークのそれぞれについて特徴情報Cが示す名称C3を取得する。そして範囲特定部113は、検出した複数の人物又はマークに対応する名称C3それぞれについて、ユーザの嗜好D2に合致するか否かを判定する。そして範囲特定部113は、ユーザの嗜好D2に合致する名称C3に対応する1つ又は複数の人物又はマークを含む範囲Rを特定する。このような処理によっても、配信サーバ1は、ユーザの嗜好D2に合致した部分画像A1を生成し、表示端末2へ送信できる。 When a plurality of persons or marks are detected in the image B1, the range specifying unit 113 acquires the name C3 indicated by the feature information C for each of the detected plurality of persons or marks. Then, the range specifying unit 113 determines whether or not each of the detected names C3 corresponding to the plurality of persons or marks matches the user's preference D2. Then, the range specifying unit 113 specifies a range R including one or a plurality of persons or marks corresponding to the name C3 that matches the user's preference D2. Even by such processing, the distribution server 1 can generate a partial image A1 that matches the user's preference D2 and transmit it to the display terminal 2.

[変形例]
本変形例において、配信サーバ1は、ユーザ情報Dが示すユーザの属性に基づいて、部分画像A1の大きさ又は範囲Rの大きさを変更する。図12は、ユーザ情報記憶部123が記憶しているユーザ情報Dの模式図である。ユーザ情報Dは、ユーザの属性として年齢D3及び視力D4を、ユーザの識別情報D1と関連付けて示す。年齢D3はユーザの年齢であり、視力D4はユーザの視力である。ユーザ情報Dは、さらに図10と同様の嗜好D2を示してもよい。ユーザの属性として、ユーザ年齢及び視力以外の値を用いてもよい。
[Modification example]
In this modification, the distribution server 1 changes the size of the partial image A1 or the size of the range R based on the attribute of the user indicated by the user information D. FIG. 12 is a schematic diagram of the user information D stored in the user information storage unit 123. The user information D shows the age D3 and the visual acuity D4 as the user's attributes in association with the user's identification information D1. Age D3 is the age of the user and visual acuity D4 is the visual acuity of the user. The user information D may further indicate the preference D2 similar to that in FIG. As the user's attribute, a value other than the user's age and visual acuity may be used.

配信サーバ1は、例えばユーザに対して年齢及び視力を回答させるアンケートを取り、該ユーザの識別情報D1と、回答が示す年齢D3及び視力D4とを関連付けて、ユーザ情報Dとしてユーザ情報記憶部123に予め記憶させる。 For example, the distribution server 1 takes a questionnaire to ask the user to answer the age and visual acuity, associates the user's identification information D1 with the age D3 and the visual acuity D4 indicated by the answer, and records the user information D as the user information storage unit 123. To memorize in advance.

部分画像生成部114は、ユーザ情報Dの年齢D3及び視力D4の少なくとも一方に基づいて、部分画像A1の大きさを変更する。例えば部分画像生成部114は、年齢D3が所定値以上である場合に、そうでない場合よりも大きい部分画像A1を生成する。また、例えば部分画像生成部114は、視力D4が所定値以下である場合に、そうでない場合よりも大きい部分画像A1を生成する。これにより配信サーバ1は、高齢のユーザ又は視力が低いユーザに対してより大きい部分画像A1を提供することができ、ユーザにとって一覧画面Aを見やすくできる。 The partial image generation unit 114 changes the size of the partial image A1 based on at least one of the age D3 and the visual acuity D4 of the user information D. For example, the partial image generation unit 114 generates a partial image A1 larger than that when the age D3 is equal to or greater than a predetermined value. Further, for example, the partial image generation unit 114 generates a partial image A1 larger than that when the visual acuity D4 is equal to or less than a predetermined value. As a result, the distribution server 1 can provide a larger partial image A1 to an elderly user or a user with low visual acuity, and makes it easier for the user to see the list screen A.

また、範囲特定部113は、ユーザ情報Dの年齢D3及び視力D4の少なくとも一方に基づいて、範囲Rの大きさを変更する。例えば部分画像生成部114は、年齢D3が所定値以上である場合に、そうでない場合よりも小さい範囲Rを特定する。また、例えば部分画像生成部114は、視力D4が所定値以下である場合に、そうでない場合よりも小さい範囲Rを特定する。同じ大きさの部分画像A1であれば、画像B1の中の範囲Rが小さいほど、部分画像A1中の被写体が相対的に大きくなる。そのため、配信サーバ1は、高齢のユーザ又は視力が低いユーザに対して被写体が大きく写った部分画像A1を提供することができ、ユーザにとって一覧画面Aを見やすくできる。 Further, the range specifying unit 113 changes the size of the range R based on at least one of the age D3 and the visual acuity D4 of the user information D. For example, the partial image generation unit 114 specifies a range R that is smaller when the age D3 is equal to or greater than a predetermined value. Further, for example, the partial image generation unit 114 specifies a range R smaller than that when the visual acuity D4 is equal to or less than a predetermined value. If the partial image A1 has the same size, the smaller the range R in the image B1, the larger the subject in the partial image A1. Therefore, the distribution server 1 can provide the partial image A1 in which the subject is largely captured to the elderly user or the user with low visual acuity, and the list screen A can be easily seen by the user.

(第3の実施形態)
本実施形態に係る配信サーバ1は、1つの画像B1に基づいて互いに異なる複数の部分画像A1を生成し、ユーザの選択状況に応じていずれかの部分画像A1を選択的に送信する。以下では第1の実施形態と異なる点を主に説明する。
(Third embodiment)
The distribution server 1 according to the present embodiment generates a plurality of different partial images A1 based on one image B1, and selectively transmits one of the partial images A1 according to the user's selection status. Hereinafter, the differences from the first embodiment will be mainly described.

範囲特定部113は、画像B1の中で複数の人物又はマークを検出した場合に、複数の人物又はマークのそれぞれを含む複数の範囲Rを特定する。部分画像生成部114は、画像B1から複数の範囲Rのそれぞれを切り出すことによって複数の部分画像A1を生成する。 When a plurality of persons or marks are detected in the image B1, the range specifying unit 113 specifies a plurality of ranges R including each of the plurality of persons or marks. The partial image generation unit 114 generates a plurality of partial images A1 by cutting out each of the plurality of ranges R from the image B1.

図13は、一覧画面Aにおけるユーザの選択状況を示す模式図である。図13の例では、部分画像生成部114は、同じコンテンツの画像B1に対して、複数の部分画像A1a、A1bを生成した。配信サーバ1の送信部115は、複数のユーザU1、U2、U3の表示端末2に対して、無作為に部分画像A1a及び部分画像A1bのどちらかを送信した。ユーザU1、U2は、一覧画面Aにおいて部分画像A1aに関連付けられたコンテンツを選択し、ユーザU3は、一覧画面Aにおいて部分画像A1bに関連付けられたコンテンツを選択しなかった。したがって、部分画像A1aの選択率は、部分画像A1bの選択率よりも高いといえる。 FIG. 13 is a schematic diagram showing a user's selection status on the list screen A. In the example of FIG. 13, the partial image generation unit 114 generated a plurality of partial images A1a and A1b for the image B1 having the same content. The transmission unit 115 of the distribution server 1 randomly transmits either the partial image A1a or the partial image A1b to the display terminals 2 of the plurality of users U1, U2, and U3. The users U1 and U2 selected the content associated with the partial image A1a on the list screen A, and the user U3 did not select the content associated with the partial image A1b on the list screen A. Therefore, it can be said that the selectivity of the partial image A1a is higher than the selectivity of the partial image A1b.

配信サーバ1において、部分画像生成部114は、複数のユーザによる複数の部分画像A1の選択状況を取得する。そして部分画像生成部114は、取得した選択状況を統計処理し、複数の部分画像A1の選択率に有意差が発生した段階で、複数の部分画像A1のうち選択率がより高い1つの部分画像A1を選択する。これ以降に同じコンテンツを一覧画面Aに表示する場合に、送信部115は、部分画像生成部114が選択した部分画像A1を送信する。このように配信サーバ1は、複数の部分画像A1を生成し、ユーザの選択状況に基づいて部分画像A1を統計的に選択して送信するため、ユーザに選択されやすい(すなわちユーザの興味を引きやすい)部分画像A1を提供できる。 In the distribution server 1, the partial image generation unit 114 acquires the selection status of the plurality of partial images A1 by the plurality of users. Then, the partial image generation unit 114 statistically processes the acquired selection status, and when a significant difference occurs in the selection rates of the plurality of partial images A1, one partial image having a higher selection rate among the plurality of partial images A1. Select A1. When the same content is displayed on the list screen A thereafter, the transmission unit 115 transmits the partial image A1 selected by the partial image generation unit 114. In this way, the distribution server 1 generates a plurality of partial images A1 and statistically selects and transmits the partial image A1 based on the selection status of the user, so that the partial image A1 is easily selected by the user (that is, attracts the interest of the user). (Easy) Partial image A1 can be provided.

範囲特定部113及び部分画像生成部114は、複数のユーザによる複数の部分画像A1の選択状況を機械学習することによって、次回以降に部分画像A1を生成する際に、学習結果に基づいてより適した範囲Rを特定してもよい。範囲特定部113及び部分画像生成部114は、機械学習の方法として、ディープラーニング(ディープニューラルネットワーク)等の既知の方法を用いることができる。 The range specifying unit 113 and the partial image generation unit 114 are more suitable based on the learning result when the partial image A1 is generated from the next time onward by machine learning the selection status of the plurality of partial images A1 by the plurality of users. The range R may be specified. The range specifying unit 113 and the partial image generation unit 114 can use a known method such as deep learning (deep neural network) as a machine learning method.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, the specific embodiment of the distribution / integration of the device is not limited to the above embodiment, and all or a part thereof may be functionally or physically distributed / integrated in any unit. Can be done. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment together.

配信サーバ1及び表示端末2のプロセッサは、図7に示す方法に含まれる各ステップ(工程)の主体となる。すなわち、配信サーバ1及び表示端末2のプロセッサは、図7に示す方法を実行するためのプログラムを記憶部から読み出し、該プログラムを実行して配信システムSの各部を制御することによって、図7に示す方法を実行する。図7に示す方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。 The processor of the distribution server 1 and the display terminal 2 is the main body of each step (process) included in the method shown in FIG. That is, the processors of the distribution server 1 and the display terminal 2 read a program for executing the method shown in FIG. 7 from the storage unit, execute the program, and control each unit of the distribution system S, so that FIG. 7 shows. Perform the method shown. The steps included in the method shown in FIG. 7 may be partially omitted, the order between the steps may be changed, or a plurality of steps may be performed in parallel.

S 配信システム
1 配信サーバ
11 制御部
112 コンテンツ取得部
113 範囲特定部
114 部分画像生成部
115 送信部
12 記憶部
2 表示端末

S Distribution system 1 Distribution server 11 Control unit 112 Content acquisition unit 113 Range specification unit 114 Partial image generation unit 115 Transmission unit 12 Storage unit 2 Display terminal

Claims (8)

画像及び文章を含むコンテンツを取得する取得部と、
前記画像の中で被写体の特徴量を算出し、前記文章に含まれている人物又は集団の名称に関連付けられた、当該名称に対応する人物又はマークの基準特徴量を記憶部から取得し、算出した前記特徴量及び取得した前記基準特徴量に基づいて前記画像の一部の当該名称に対応する人物又はマークを含む範囲を特定する特定部と、
前記画像の中で前記範囲を切り出すことによって部分画像を生成する生成部と、
前記部分画像を含む第1画面を表示するための情報を表示端末へ送信する送信部と、
前記表示端末から、前記第1画面においてユーザが行った操作を示す情報を受信する受付部と、
を有し、
前記送信部は、前記受付部が、前記第1画面において前記コンテンツに関連付けられた要素を前記ユーザが選択したことを示す情報を受信した場合に、前記コンテンツを含む第2画面を表示するための情報を前記表示端末へ送信する、
配信装置。
The acquisition unit that acquires content including images and sentences,
The feature amount of the subject is calculated in the image, and the reference feature amount of the person or mark corresponding to the name of the person or group included in the sentence is acquired from the storage unit and calculated. A specific part that specifies a range including a person or a mark corresponding to the name of a part of the image based on the feature amount obtained and the reference feature amount acquired .
A generation unit that generates a partial image by cutting out the range in the image,
A transmission unit that transmits information for displaying the first screen including the partial image to the display terminal, and a transmission unit.
A reception unit that receives information indicating an operation performed by the user on the first screen from the display terminal.
Have,
The transmitting unit is for displaying a second screen including the content when the receiving unit receives information indicating that the user has selected an element associated with the content on the first screen. Sending information to the display terminal,
Delivery device.
前記要素は、前記コンテンツが含む前記画像の一部である前記部分画像と、前記コンテンツが含む前記文章の一部である見出しと、の少なくとも一方である、請求項1に記載の配信装置。 The distribution device according to claim 1, wherein the element is at least one of a partial image which is a part of the image included in the content and a heading which is a part of the sentence included in the content. 前記特定部は、前記特徴量に基づいて前記画像の中で人物又はマークを認識し、認識した前記人物又はマークを含む前記範囲を特定する、請求項1又は2に記載の配信装置。 The distribution device according to claim 1 or 2, wherein the specific unit recognizes a person or a mark in the image based on the feature amount, and specifies the range including the recognized person or the mark. 前記特定部は、前記画像の中で複数の人物又はマークを認識した場合に、認識した前記複数の人物又はマークを含む前記範囲を特定する、請求項3に記載の配信装置。 The distribution device according to claim 3, wherein the specific unit specifies the range including the recognized plurality of persons or marks when the plurality of persons or marks are recognized in the image. 前記特定部は、前記ユーザの嗜好に合致する前記基準特徴量を前記記憶部から取得し、前記特徴量及び前記基準特徴量に基づいて前記範囲を特定する、請求項1から4のいずれか一項に記載の配信装置。 Any one of claims 1 to 4, wherein the specific unit acquires the reference feature amount that matches the taste of the user from the storage unit, and specifies the range based on the feature amount and the reference feature amount. The delivery device described in the section . 前記生成部は、前記画像の中で互いに異なる前記範囲を切り出すことによって複数の前記部分画像を生成し、
前記送信部は、複数の前記部分画像のうち、複数の前記部分画像に対するユーザの選択状況に基づいて統計的に選択したいずれか1つの前記部分画像を含む前記第1画面を表示するための情報を前記表示端末へ送信する、請求項1からのいずれか一項に記載の配信装置。
The generation unit generates a plurality of the partial images by cutting out the different ranges in the image.
Information for displaying the first screen including any one of the partial images statistically selected based on the user's selection status for the plurality of the partial images among the plurality of the partial images. The distribution device according to any one of claims 1 to 5 , wherein the image is transmitted to the display terminal.
前記特定部は、前記ユーザの属性に基づいて、前記部分画像の大きさ又は前記範囲の大きさを変更する、請求項1からのいずれか一項に記載の配信装置。 The distribution device according to any one of claims 1 to 6 , wherein the specific unit changes the size of the partial image or the size of the range based on the attribute of the user. プロセッサが、
画像及び文章を含むコンテンツを取得するステップと、
前記画像の中で被写体の特徴量を算出するステップと
前記文章に含まれている人物又は集団の名称に関連付けられた、当該名称に対応する人物又はマークの基準特徴量を記憶部から取得するステップと、
算出した前記特徴量及び取得した前記基準特徴量に基づいて前記画像の一部の当該名称に対応する人物又はマークを含む範囲を特定するステップと、
前記画像の中で前記範囲を切り出すことによって部分画像を生成するステップと、
前記部分画像を含む第1画面を表示するための情報を表示端末へ送信するステップと、
前記表示端末から、前記第1画面においてユーザが行った操作を示す情報を受信するステップと、
前記受信するステップにおいて、前記第1画面において前記コンテンツに関連付けられた要素を前記ユーザが選択したことを示す情報を受信した場合に、前記コンテンツを含む第2画面を表示するための情報を前記表示端末へ送信するステップと、
を実行する配信方法。
The processor,
Steps to get content including images and text,
The step of calculating the feature amount of the subject in the image and
A step of acquiring the reference feature amount of the person or mark corresponding to the name of the person or group included in the sentence from the storage unit, and
A step of specifying a range including a person or a mark corresponding to the name of a part of the image based on the calculated feature amount and the acquired reference feature amount .
A step of generating a partial image by cutting out the range in the image,
A step of transmitting information for displaying the first screen including the partial image to the display terminal, and
A step of receiving information indicating an operation performed by the user on the first screen from the display terminal, and
In the receiving step, when the user receives the information indicating that the user has selected the element associated with the content on the first screen, the information for displaying the second screen including the content is displayed. Steps to send to the terminal and
Delivery method to execute.
JP2018175184A 2018-09-19 2018-09-19 Distribution device and distribution method Active JP7036695B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018175184A JP7036695B2 (en) 2018-09-19 2018-09-19 Distribution device and distribution method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018175184A JP7036695B2 (en) 2018-09-19 2018-09-19 Distribution device and distribution method

Publications (2)

Publication Number Publication Date
JP2020046969A JP2020046969A (en) 2020-03-26
JP7036695B2 true JP7036695B2 (en) 2022-03-15

Family

ID=69901594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018175184A Active JP7036695B2 (en) 2018-09-19 2018-09-19 Distribution device and distribution method

Country Status (1)

Country Link
JP (1) JP7036695B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164431A (en) 2012-02-09 2013-08-22 Nikon Corp Display device and display system
WO2016210052A1 (en) 2015-06-26 2016-12-29 Rovi Guides, Inc. Systems and methods for automatic formatting of images for media assets based on user profile
WO2018083767A1 (en) 2016-11-02 2018-05-11 楽天株式会社 Information processing device, information processing method, program, and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013164431A (en) 2012-02-09 2013-08-22 Nikon Corp Display device and display system
WO2016210052A1 (en) 2015-06-26 2016-12-29 Rovi Guides, Inc. Systems and methods for automatic formatting of images for media assets based on user profile
WO2018083767A1 (en) 2016-11-02 2018-05-11 楽天株式会社 Information processing device, information processing method, program, and storage medium

Also Published As

Publication number Publication date
JP2020046969A (en) 2020-03-26

Similar Documents

Publication Publication Date Title
CN104572846B (en) A kind of hot word recommendation methods, devices and systems
US8510287B1 (en) Annotating personalized recommendations
JP4947477B1 (en) RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND RECOMMENDATION PROGRAM
JP5548723B2 (en) Information processing apparatus, information processing method, and information processing program
JP6185216B1 (en) Information providing system, information providing apparatus, information providing method, and program
US9239961B1 (en) Text recognition near an edge
US20130044922A1 (en) Information processing device, information processing method, program, and information processing system
EP2612262A1 (en) Methods, apparatuses and computer program products for determining shared friends of individuals
WO2014000645A1 (en) Interacting method, apparatus and server based on image
US20200302897A1 (en) Business card management system and card case
JP7307607B2 (en) Method, computer program and computing device for facilitating media-based content sharing
JP2008262362A (en) Information communication system, facility side device, user side device, program for facility side device, and program for user side device
CN106030578B (en) Search system and control method of search system
JP2021183015A (en) Content providing system and content providing method
US20190012370A1 (en) Information processing apparatus
JP7036695B2 (en) Distribution device and distribution method
CN102782714A (en) Advertisement distribution server and advertisement distribution method
US20160261826A1 (en) Terminal, system, display method, and recording medium storing a display program
JP2019212039A (en) Information processing device, information processing method, program, and information processing system
JPH10320454A (en) Mail ordering method using internet
KR20200024404A (en) Apparel Recommendation Method and System for User-owned Costume Using Clothing Data and Deep Learning
JP5134882B2 (en) Content management device
JP2015225398A (en) Design management device and program
JP6211337B2 (en) Data transmission device, data storage device, data display device, data search device, data transmission method, data storage method, data display method and data search method
JP2013196107A (en) Image processing system, image processing method, server, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220303

R150 Certificate of patent or registration of utility model

Ref document number: 7036695

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150