JP7036695B2 - Distribution device and distribution method - Google Patents
Distribution device and distribution method Download PDFInfo
- Publication number
- JP7036695B2 JP7036695B2 JP2018175184A JP2018175184A JP7036695B2 JP 7036695 B2 JP7036695 B2 JP 7036695B2 JP 2018175184 A JP2018175184 A JP 2018175184A JP 2018175184 A JP2018175184 A JP 2018175184A JP 7036695 B2 JP7036695 B2 JP 7036695B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- content
- feature amount
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、電子的なコンテンツを配信するための配信装置、配信方法、表示端末、表示プログラム及び表示方法に関する。 The present invention relates to a distribution device, a distribution method, a display terminal, a display program, and a display method for distributing electronic contents.
従来、ニュース記事等のコンテンツに関連付けられた見出しの一覧を表示し、ユーザがいずれかの見出しを選択することによって詳細な記事を表示するサービスが普及している(例えば特許文献1参照)。 Conventionally, a service of displaying a list of headlines associated with contents such as news articles and displaying detailed articles by a user selecting one of the headlines has become widespread (see, for example, Patent Document 1).
このようなサービスは、ユーザが記事の内容を視覚的に把握できるように、見出しの近傍に、各記事に含まれる画像の一部を切り出してサムネイル画像として表示する場合がある。見出しの一覧性を確保するために、表示可能なサムネイル画像の大きさは限られている。そのため、画像中の決まった位置(例えば上部や中央部)を切り出すと、画像中で記事の内容に関係のない部分がサムネイル画像になってしまい、ユーザがサムネイル画像を見ても記事の内容を把握できないことがあった。 Such a service may cut out a part of the image included in each article and display it as a thumbnail image in the vicinity of the headline so that the user can visually grasp the content of the article. The size of the thumbnail image that can be displayed is limited in order to ensure the listability of the headline. Therefore, if you cut out a fixed position (for example, the upper part or the center part) in the image, the part of the image that is not related to the content of the article will become a thumbnail image, and even if the user sees the thumbnail image, the content of the article will be displayed. There were times when I couldn't figure it out.
本発明は上述の点に鑑みてなされたものであり、コンテンツに含まれている画像に基づいて、ユーザにとってコンテンツの内容がわかりやすいサムネイル画像を表示できる配信装置、配信方法、表示端末、表示プログラム及び表示方法を提供することを目的とする。 The present invention has been made in view of the above points, and a distribution device, a distribution method, a display terminal, a display program, and a distribution device, a distribution method, a display terminal, and a display program capable of displaying a thumbnail image in which the content of the content is easy for the user to understand based on the image included in the content. The purpose is to provide a display method.
本発明の第1の態様の配信装置は、画像及び文章を含むコンテンツを取得する取得部と、前記画像の中で被写体の特徴量を算出し、算出した前記特徴量に基づいて前記画像の一部の範囲を特定する特定部と、前記画像の中で前記範囲を切り出すことによって部分画像を生成する生成部と、前記部分画像を含む第1画面を表示するための情報を表示端末へ送信するとともに、前記第1画面において前記コンテンツに関連付けられた要素をユーザが選択した場合に前記コンテンツを含む第2画面を表示するための情報を前記表示端末へ送信する送信部と、を有する。 The distribution device according to the first aspect of the present invention includes an acquisition unit for acquiring content including an image and a sentence, calculates a feature amount of a subject in the image, and is one of the images based on the calculated feature amount. A specific part that specifies the range of the part, a generation part that generates a partial image by cutting out the range in the image, and information for displaying the first screen including the partial image are transmitted to the display terminal. In addition, it has a transmission unit that transmits information for displaying the second screen including the content to the display terminal when the user selects an element associated with the content on the first screen.
前記特定部は、前記特徴量に基づいて前記画像の中で人物又はマークを認識し、認識した前記人物又はマークを含む前記範囲を特定してもよい。 The specific unit may recognize a person or mark in the image based on the feature amount, and may specify the range including the recognized person or mark.
前記特定部は、前記画像の中で複数の人物又はマークを認識した場合に、認識した前記複数の人物又はマークを含む前記範囲を特定してもよい。 When a plurality of persons or marks are recognized in the image, the specific unit may specify the range including the recognized plurality of persons or marks.
前記特定部は、前記特徴量と記憶部に記憶された基準特徴量とを比較することによって、前記範囲を特定してもよい。 The specific unit may specify the range by comparing the feature amount with the reference feature amount stored in the storage unit.
前記特定部は、前記文章に含まれている人物又は集団の名称に関連付けられた前記基準特徴量を前記記憶部から取得し、前記特徴量及び前記基準特徴量に基づいて前記範囲を特定してもよい。 The specific unit acquires the reference feature amount associated with the name of the person or group included in the sentence from the storage unit, and specifies the range based on the feature amount and the reference feature amount. May be good.
前記特定部は、前記ユーザの嗜好に合致する前記基準特徴量を前記記憶部から取得し、前記特徴量及び前記基準特徴量に基づいて前記範囲を特定してもよい。 The specific unit may acquire the reference feature amount that matches the taste of the user from the storage unit, and specify the range based on the feature amount and the reference feature amount.
前記生成部は、前記画像の中で互いに異なる前記範囲を切り出すことによって複数の前記部分画像を生成し、前記送信部は、複数の前記部分画像のうち、複数の前記部分画像に対するユーザの選択状況に基づいて統計的に選択したいずれか1つの前記部分画像を含む前記第1画面を表示するための情報を前記表示端末へ送信してもよい。 The generation unit generates a plurality of the partial images by cutting out the ranges different from each other in the image, and the transmission unit generates the user's selection status for the plurality of the partial images among the plurality of the partial images. Information for displaying the first screen including any one of the partial images statistically selected based on the above may be transmitted to the display terminal.
前記特定部は、前記ユーザの属性に基づいて、前記部分画像の大きさ又は前記範囲の大きさを変更してもよい。 The specific unit may change the size of the partial image or the size of the range based on the attributes of the user.
本発明の第2の態様の配信方法は、プロセッサが、画像及び文章を含むコンテンツを取得するステップと、前記画像の中で被写体の特徴量を算出し、算出した前記特徴量に基づいて前記画像の一部の範囲を特定するステップと、前記画像の中で前記範囲を切り出すことによって部分画像を生成するステップと、前記部分画像を含む第1画面を表示するための情報を表示端末へ送信するとともに、前記第1画面において前記コンテンツに関連付けられた要素をユーザが選択した場合に前記コンテンツを含む第2画面を表示するための情報を前記表示端末へ送信するステップと、を実行する。 In the distribution method of the second aspect of the present invention, the processor acquires a content including an image and a sentence, calculates a feature amount of a subject in the image, and the image is based on the calculated feature amount. A step of specifying a part of the range of the image, a step of generating a partial image by cutting out the range in the image, and information for displaying the first screen including the partial image are transmitted to the display terminal. At the same time, when the user selects an element associated with the content on the first screen, the step of transmitting information for displaying the second screen including the content to the display terminal is executed.
本発明の第3の態様の表示端末は、画像及び文章を含むコンテンツを取得する取得部と、前記画像の中で被写体の特徴量を算出し、算出した前記特徴量に基づいて前記画像の一部の範囲を特定する特定部と、前記画像の中で前記範囲を切り出すことによって部分画像を生成する生成部と、前記部分画像を含む第1画面を表示するとともに、前記第1画面において前記コンテンツに関連付けられた要素をユーザが選択した場合に前記コンテンツを含む第2画面を表示する表示部と、を有する。 The display terminal according to the third aspect of the present invention includes an acquisition unit that acquires content including an image and a sentence, calculates a feature amount of a subject in the image, and is one of the images based on the calculated feature amount. A specific part that specifies the range of the part, a generation part that generates a partial image by cutting out the range in the image, and a first screen including the partial image are displayed, and the content is displayed on the first screen. It has a display unit for displaying a second screen including the content when the user selects an element associated with.
前記特定部は、前記特徴量に基づいて前記画像の中で人物又はマークを認識し、認識した前記人物又はマークを含む前記範囲を特定してもよい。 The specific unit may recognize a person or mark in the image based on the feature amount, and may specify the range including the recognized person or mark.
前記特定部は、前記特徴量と記憶部に記憶された基準特徴量とを比較することによって、前記範囲を特定してもよい。 The specific unit may specify the range by comparing the feature amount with the reference feature amount stored in the storage unit.
前記特定部は、前記文章に含まれている人物又は集団の名称に関連付けられた前記基準特徴量を前記記憶部から取得し、前記特徴量及び前記基準特徴量に基づいて前記範囲を特定してもよい。 The specific unit acquires the reference feature amount associated with the name of the person or group included in the sentence from the storage unit, and specifies the range based on the feature amount and the reference feature amount. May be good.
本発明の第4の態様の表示プログラムは、表示端末に、画像及び文章を含むコンテンツを取得するステップと、前記画像の中で被写体の特徴量を算出し、算出した前記特徴量に基づいて前記画像の一部の範囲を特定するステップと、前記画像の中で前記範囲を切り出すことによって部分画像を生成するステップと、前記部分画像を含む第1画面を表示するとともに、前記第1画面において前記コンテンツに関連付けられた要素をユーザが選択した場合に前記コンテンツを含む第2画面を表示するステップと、を実行させる。 In the display program of the fourth aspect of the present invention, the step of acquiring the content including the image and the text on the display terminal, the feature amount of the subject in the image is calculated, and the feature amount is calculated based on the calculated feature amount. A step of specifying a partial range of an image, a step of generating a partial image by cutting out the range in the image, and a first screen including the partial image are displayed, and the first screen includes the above. When the user selects an element associated with the content, the step of displaying the second screen including the content is executed.
本発明の第5の態様の表示方法は、プロセッサが、画像及び文章を含むコンテンツを取得するステップと、前記画像の中で被写体の特徴量を算出し、算出した前記特徴量に基づいて前記画像の一部の範囲を特定するステップと、前記画像の中で前記範囲を切り出すことによって部分画像を生成するステップと、前記部分画像を含む第1画面を表示するとともに、前記第1画面において前記コンテンツに関連付けられた要素をユーザが選択した場合に前記コンテンツを含む第2画面を表示するステップと、を実行する。 In the display method of the fifth aspect of the present invention, the processor acquires a content including an image and a sentence, calculates a feature amount of a subject in the image, and the image is based on the calculated feature amount. A step of specifying a part of the range, a step of generating a partial image by cutting out the range in the image, a first screen including the partial image is displayed, and the content is displayed on the first screen. When the user selects an element associated with, the step of displaying the second screen including the content is executed.
本発明によれば、コンテンツに含まれている画像に基づいて、ユーザにとってコンテンツの内容がわかりやすいサムネイル画像を表示できるという効果を奏する。 According to the present invention, it is possible to display a thumbnail image in which the content of the content is easy for the user to understand based on the image included in the content.
(第1の実施形態)
[配信システムSの概要]
図1は、本実施形態に係る配信システムSの模式図である。配信システムSは、配信サーバ1と、表示端末2とを含む。配信システムSは、その他のサーバ、端末等の機器を含んでもよい。
(First Embodiment)
[Overview of distribution system S]
FIG. 1 is a schematic diagram of a distribution system S according to the present embodiment. The distribution system S includes a distribution server 1 and a
配信サーバ1(配信装置)は、有線又は無線の通信を行うことが可能であり、電子的なコンテンツ(以下、コンテンツという)を表示するためのデータを表示端末2へ送信するコンピュータである。コンテンツは、テキスト(文字)及び画像(静止画像又は動画像)を含む。配信サーバ1は、インターネット、ローカルエリアネットワーク等のネットワークNを介してコンテンツを表示するためのデータを、表示端末2へ送信する。
The distribution server 1 (distribution device) is a computer capable of performing wired or wireless communication and transmitting data for displaying electronic contents (hereinafter referred to as contents) to the
表示端末2は、有線又は無線の通信を行うことが可能であり、通信によって取得したコンテンツを表示可能な通信装置である。例えば表示端末2は、スマートフォン、タブレット端末等の携帯端末や、パーソナルコンピュータである。表示端末2は、ネットワークNを介してコンテンツを表示するためのデータを配信サーバ1から受信して、コンテンツを表示する。
The
[配信システムSの構成]
図2は、本実施形態に係る配信システムSのブロック図である。図2において、矢印は主なデータの流れを示しており、図2に示したもの以外のデータの流れがあってよい。図2において、各ブロックはハードウェア(装置)単位の構成ではなく、機能単位の構成を示している。そのため、図2に示すブロックは単一の装置内に実装されてよく、あるいは複数の装置内に分かれて実装されてよい。ブロック間のデータの授受は、データバス、ネットワーク、可搬記憶媒体等、任意の手段を介して行われてよい。
[Configuration of distribution system S]
FIG. 2 is a block diagram of the distribution system S according to the present embodiment. In FIG. 2, the arrows indicate the main data flows, and there may be data flows other than those shown in FIG. In FIG. 2, each block shows not a hardware (device) unit configuration but a functional unit configuration. Therefore, the block shown in FIG. 2 may be mounted in a single device, or may be mounted separately in a plurality of devices. Data can be exchanged between blocks via any means such as a data bus, a network, and a portable storage medium.
配信サーバ1は、制御部11と、記憶部12とを有する。制御部11は、操作受付部111と、コンテンツ取得部112と、範囲特定部113と、部分画像生成部114と、送信部115とを有する。記憶部12は、コンテンツ記憶部121と、特徴情報記憶部122とを有する。
The distribution server 1 has a
記憶部12は、ROM(Read Only Memory)、RAM(Random Access Memory)、ハードディスクドライブ等を含む記憶媒体である。記憶部12は、制御部11が実行するプログラムを予め記憶している。記憶部12は、配信サーバ1の外部に設けられてもよく、その場合にネットワークを介して制御部11との間でデータの授受を行ってもよい。
The
コンテンツ記憶部121は、コンテンツを表示するためのデータを記憶する。特徴情報記憶部122は、画像の中で所定の被写体を検出するための特徴情報を記憶する。コンテンツ記憶部121及び特徴情報記憶部122は、それぞれ記憶部12上の記憶領域であってもよく、あるいは記憶部12上で構成されたデータベースであってもよい。
The
制御部11は、例えばCPU(Central Processing Unit)等のプロセッサであり、記憶部12に記憶されたプログラムを実行することにより、操作受付部111、コンテンツ取得部112、範囲特定部113、部分画像生成部114及び送信部115として機能する。制御部11の機能の少なくとも一部は、電気回路によって実行されてもよい。また、制御部11の機能の少なくとも一部は、ネットワーク経由で実行されるプログラムによって実行されてもよい。
The
表示端末2は、表示部21と、操作部22とを有する。表示部21は、液晶ディスプレイ等、情報を表示可能な表示装置を含む。操作部22は、キーボード、マウス等、ユーザの操作を受け付け可能な操作装置を含む。表示部21としてユーザによる接触の位置を検出可能なタッチスクリーンを用いることによって、表示部21と操作部22とを一体に構成してもよい。
The
本実施形態に係る配信システムSは、図2に示す具体的な構成に限定されない。配信サーバ1及び表示端末2は、それぞれ1つの装置に限られず、2つ以上の物理的に分離した装置が有線又は無線で接続されることにより構成されてもよい。
The distribution system S according to the present embodiment is not limited to the specific configuration shown in FIG. The distribution server 1 and the
[配信方法の説明]
コンテンツ記憶部121は、ニュース記事等のコンテンツに含まれる画像及び文章のデータを予め記憶している。ここではコンテンツ記憶部121は、コンテンツとしてニュース記事のデータを記憶しているが、その他の種類のコンテンツのデータを記憶してもよい。また、コンテンツ記憶部121は、後述の範囲特定部113及び部分画像生成部114がコンテンツに含まれる画像の一部を切り出すことによって生成した部分画像のデータを、コンテンツに関連付けて記憶する。
[Explanation of delivery method]
The
図3(a)は、コンテンツの一覧画面Aを表示している表示端末2の正面図である。一覧画面A(第1画面)は、1つ以上の部分画像A1と、1つ以上の見出しA2とを含む。部分画像A1(サムネイル画像ともいう)は、コンテンツに含まれる画像B1の一部を切り出した画像である。見出しA2は、コンテンツに含まれる文章B2の表題である。部分画像A1及び見出しA2は、コンテンツに関連付けられた要素であり、該コンテンツの詳細画面Bにリンクされている。
FIG. 3A is a front view of the
図3(b)は、コンテンツの詳細画面Bを表示している表示端末2の正面図である。詳細画面B(第2画面)は、画像B1と、文章B2とを含む。画像B1は、コンテンツに含まれる画像であり、部分画像A1の元となる画像である。文章B2は、コンテンツに含まれる文章である。
FIG. 3B is a front view of the
本実施形態に係る配信方法において、表示端末2のユーザは、一覧画面Aを閲覧したい場合に、操作部22を用いて一覧画面Aを表示するための操作を行う。表示端末2は、一覧画面Aを表示するための操作を示す情報を、配信サーバ1へ送信する。
In the distribution method according to the present embodiment, when the user of the
配信サーバ1において、操作受付部111は、一覧画面Aを表示するための操作を示す情報を表示端末2から受信して受け付ける。コンテンツ取得部112は、操作受付部111が一覧画面Aを表示するための操作を示す情報を受け付けた場合に、一覧画面Aに表示される1つ以上のコンテンツに関連付けられた、部分画像A1のデータと、見出しA2のデータとを、コンテンツ記憶部121から取得する。一覧画面Aに表示されるコンテンツは、所定の規則に基づいて自動的に指定されてもよい。この場合に、例えばコンテンツ取得部112は、記録された時刻が新しい順に所定個のコンテンツを取得する。あるいは一覧画面Aに表示されるコンテンツは、配信サーバ1の管理者等によって手動で予め指定されてもよい。
In the distribution server 1, the operation reception unit 111 receives and receives information indicating an operation for displaying the list screen A from the
一覧画面Aに表示されるコンテンツに関連付けられた部分画像A1のデータがコンテンツ記憶部121に記憶されていない場合に、範囲特定部113及び部分画像生成部114は、一覧画面Aに表示されるコンテンツに含まれる画像B1に基づいて部分画像A1を生成する。
When the data of the partial image A1 associated with the content displayed on the list screen A is not stored in the
具体的には、範囲特定部113は、一覧画面Aに表示されるコンテンツに含まれる画像B1のデータをコンテンツ記憶部121から取得するとともに、特徴情報を特徴情報記憶部122から取得する。
Specifically, the
図4は、特徴情報記憶部122が記憶している特徴情報Cの模式図である。特徴情報Cは、画像の中で人物、マーク(会社のロゴ)等の被写体を検出するための特徴量を示す情報である。本実施形態では、人物及びマークは、特定の人物及びマークではなく、一般的な人物及びマークである。特徴情報記憶部122は、代表的又は平均的な1人又は複数の人物の特徴情報Cを記憶している。また、特徴情報記憶部122は、代表的又は平均的な1つ又は複数のマークの特徴情報Cを記憶している。
FIG. 4 is a schematic diagram of the feature information C stored in the feature
特徴情報Cは、種別C1と、種別C1に関連付けられた特徴量C2とを示す。種別C1は、人物、マーク等の種別である。特徴量C2は、人物(人物の顔)又はマーク(マークの全体)を検出するための特徴を表す値である。特徴量C2は、人物又はマークを含む画像(テンプレート画像)の複数の画素の輝度値の分布であってもよい。また、特徴量C2は、人物又はマークを含む画像における所定の部位(例えば人物の目、鼻、口や、マークの輪郭等)の相対的な位置であってもよい。 The feature information C indicates the type C1 and the feature amount C2 associated with the type C1. The type C1 is a type such as a person or a mark. The feature amount C2 is a value representing a feature for detecting a person (person's face) or a mark (whole mark). The feature amount C2 may be a distribution of luminance values of a plurality of pixels of an image (template image) including a person or a mark. Further, the feature amount C2 may be a relative position of a predetermined portion (for example, the eyes, nose, mouth, outline of the mark, etc. of the person) in the image including the person or the mark.
また、特徴量C2は、人物又はマークを含む画像の複数の画素の輝度値から所定の規則に従って算出した値(例えばHOG特徴量、Haar-Like特徴量)であってもよい。また、特徴量C2は、ディープラーニング(ディープニューラルネットワーク)によって人物又はマークを含む画像から自動的に抽出された特徴量であってもよい。特徴量C2は、ここに示した具体的な値に限定されず、画像に写っている人物、マーク等の被写体を検出可能なその他の値であってもよい。 Further, the feature amount C2 may be a value calculated according to a predetermined rule from the luminance values of a plurality of pixels of an image including a person or a mark (for example, a HOG feature amount, a Haar-Like feature amount). Further, the feature amount C2 may be a feature amount automatically extracted from an image including a person or a mark by deep learning (deep neural network). The feature amount C2 is not limited to the specific value shown here, and may be another value capable of detecting a subject such as a person or a mark in an image.
図4において特徴情報Cは視認性のために文字列の表で表されているが、各データは任意の形式で記録されてもよく、例えば文字列データ、数値データおよびバイナリデータのいずれでもよい。特徴情報Cは、データベースとして記録されてもよく、あるいはデータを列挙したリストとして記録されてもよい。 In FIG. 4, the feature information C is represented by a table of character strings for visibility, but each data may be recorded in any format, and may be, for example, any of character string data, numerical data, and binary data. .. The feature information C may be recorded as a database or may be recorded as a list listing data.
図5(a)、図5(b)は、範囲特定部113及び部分画像生成部114が画像B1に基づいて部分画像A1を生成する方法の模式図である。図5(a)は画像B1に基づいて人物を含む部分画像A1を生成する例を表しており、図5(b)は画像B1に基づいてマークを含む部分画像A1を生成する例を表している。
5 (a) and 5 (b) are schematic views of a method in which the
まず範囲特定部113は、画像B1の中で1つの位置を含む所定範囲において、特徴情報Cの特徴量C2と同様の方法で特徴量を算出する。範囲特定部113は、特徴情報記憶部122に記憶された各特徴情報Cの特徴量C2(すなわち基準特徴量)と、算出した特徴量とを比較する。そしていずれかの特徴情報Cの特徴量C2と、算出した特徴量との関係が所定の条件を満たす場合に、範囲特定部113は、人物又はマークを検出する。例えば範囲特定部113は、特徴情報Cの特徴量C2と、算出した特徴量との間の類似度(ユークリッド距離等)を算出し、算出した類似度が所定値以上である場合に、人物又はマークを検出する。
First, the
範囲特定部113は、画像B1の中の各位置について特徴量の算出と人物又はマークの検出とを繰り返し、人物又はマークを検出した位置を記録する。範囲特定部113は、所定数の人物又はマークが検出された時点で、人物又はマークの検出を終了してもよい。そして範囲特定部113は、画像B1の中で人物又はマークを検出した位置を含む所定の大きさの範囲Rを特定する。
The
範囲特定部113は、画像B1の中で複数の人物又はマークを検出した場合に、複数の人物又はマークを含むように、あるいは複数の人物又はマークから選択した1つの人物又はマークを含むように、範囲Rを特定する。
When a plurality of persons or marks are detected in the image B1, the
図6(a)は、画像B1の中で複数の人物又はマークが検出された場合に複数の人物又はマークを含む範囲Rを特定する方法の模式図である。範囲特定部113は、画像B1の中で複数の人物又はマークを検出した場合に、複数の人物又はマークの位置の中心点R1(例えば重心)を算出する。そして範囲特定部113は、中心点R1を含む所定の大きさの範囲Rを特定する。このとき範囲特定部113は、中心点R1を含む範囲Rが複数の人物又はマークを含むように、範囲Rの大きさを変更してもよい。これにより、配信サーバ1は、画像B1の中で複数の人物又はマークを含む部分画像A1を生成できる。
FIG. 6A is a schematic diagram of a method of specifying a range R including a plurality of persons or marks when a plurality of persons or marks are detected in the image B1. When a plurality of persons or marks are detected in the image B1, the
図6(b)は、画像B1の中で複数の人物又はマークが検出された場合に複数の人物又はマークから選択した1つの人物又はマークを含む範囲Rを特定する方法の模式図である。範囲特定部113は、画像B1の中で複数の人物又はマークを検出した場合に、複数の人物又はマークの相対的な位置関係に基づいて、複数の人物又はマークのうちいずれか1つの人物又はマークを選択する。例えば範囲特定部113は、画像B1の中で複数の人物又はマークを検出した場合に、複数の人物又はマークのうち最も上に位置する人物又はマークを選択する。これにより、配信サーバ1は、画像B1に複数の人物又はマークが含まれる場合に、1つの人物又はマークを選択的に含む部分画像A1を生成できる。
FIG. 6B is a schematic diagram of a method of specifying a range R including one person or mark selected from a plurality of people or marks when a plurality of people or marks are detected in the image B1. When the
範囲特定部113は、常に1つの人物又はマークを選択してもよく、あるいは複数の人物又はマークの間の距離が所定値以上の場合に1つの人物又はマークを選択してもよい。また、範囲特定部113は、画像B1の中で人物及びマークの両方を検出した場合に、人物を優先的に選択してもよく、あるいはマークを優先的に選択してもよい。
The
部分画像生成部114は、画像B1の中で、範囲特定部113が特定した範囲Rを切り出すことによって部分画像A1を生成し、元の画像B1を含むコンテンツと関連付けてコンテンツ記憶部121に記憶させる。送信部115は、部分画像A1及び見出しA2を含む一覧画面Aを表示するための情報を表示端末2へ送信する。表示端末2は、配信サーバ1から受信した情報に基づいて、表示部21上に図3(a)に例示した一覧画面Aを表示する。
The partial
表示端末2のユーザは、詳細画面Bを閲覧したい場合に、操作部22を用いて詳細画面Bを表示するための操作を行う。詳細画面Bを表示するための操作は、一覧画面Aの中でいずれか1つの部分画像A1又は見出しA2を選択する操作である。表示端末2は、選択された部分画像A1又は見出しA2に関連付けられたコンテンツを示す情報を、配信サーバ1へ送信する。
When the user of the
配信サーバ1において、操作受付部111は、選択された部分画像A1又は見出しA2に関連付けられたコンテンツを示す情報を表示端末2から受信して受け付ける。コンテンツ取得部112は、操作受付部111が受け付けた情報が示すコンテンツに関連付けられた、画像B1のデータと、文章B2のデータとを、コンテンツ記憶部121から取得する。
In the distribution server 1, the operation receiving unit 111 receives and receives information indicating the content associated with the selected partial image A1 or the heading A2 from the
送信部115は、画像B1及び文章B2を含む詳細画面Bを表示するための情報を表示端末2へ送信する。表示端末2は、配信サーバ1から受信した情報に基づいて、表示部21上に図3(b)に例示した詳細画面Bを表示する。
The
このように、配信サーバ1は、画像B1の中で人物又はマークを含む範囲Rを特定して部分画像A1に反映するため、ユーザにとってコンテンツの内容がわかりやすい部分画像A1を生成し、表示端末2へ送信できる。
In this way, since the distribution server 1 identifies the range R including the person or the mark in the image B1 and reflects it in the partial image A1, the distribution server 1 generates the partial image A1 in which the content of the content is easy for the user to understand, and the
[配信方法のフローチャート]
図7は、本実施形態に係る配信方法のフローチャートを示す図である。まず表示端末2のユーザは、一覧画面Aを閲覧したい場合に操作部22を用いて一覧画面Aを表示するための操作を行い、詳細画面Bを閲覧したい場合に操作部22を用いて詳細画面Bを表示するための操作を行う。配信サーバ1において、操作受付部111は、ユーザによる操作を示す情報を表示端末2から受信して受け付ける(S11)。
[Flowchart of delivery method]
FIG. 7 is a diagram showing a flowchart of the distribution method according to the present embodiment. First, the user of the
操作受付部111が一覧画面Aを表示するための操作を受け付けた場合に(S12のYES)、コンテンツ取得部112は、一覧画面Aに表示される1つ以上のコンテンツに関連付けられた、部分画像A1のデータと、見出しA2のデータとを、コンテンツ記憶部121から取得する(S13)。
When the operation reception unit 111 receives an operation for displaying the list screen A (YES in S12), the
コンテンツ取得部112が部分画像A1を取得できた場合に(S14のYES)、配信サーバ1はS18へ進む。コンテンツ取得部112が部分画像A1を取得できなかった場合に(S14のNO)、範囲特定部113は、一覧画面Aに表示されるコンテンツに含まれる画像B1のデータをコンテンツ記憶部121から取得するとともに、特徴情報Cを特徴情報記憶部122から取得する。
When the
範囲特定部113は、取得した画像B1を用いて特徴量を算出し、特徴情報記憶部122に記憶された各特徴情報Cの特徴量C2(すなわち基準特徴量)と、算出した特徴量とを比較する。そしていずれかの特徴情報Cの特徴量C2と、算出した特徴量との関係が所定の条件を満たす場合に、範囲特定部113は、人物又はマークを検出する(S15)。
The
範囲特定部113は、画像B1の中で人物又はマークを検出した位置を含む所定の大きさの範囲Rを特定する(S16)。部分画像生成部114は、画像B1の中で、範囲特定部113が特定した範囲Rを切り出すことによって部分画像A1を生成し、元の画像B1を含むコンテンツと関連付けてコンテンツ記憶部121に記憶させる(S17)。
The
送信部115は、ステップS13でコンテンツ取得部112が取得した部分画像A1又はステップS17で部分画像生成部114が生成した部分画像A1と、ステップS13でコンテンツ取得部112が取得した見出しA2とを含む一覧画面Aを表示するための情報を表示端末2へ送信する(S18)。表示端末2は、配信サーバ1から受信した情報に基づいて、一覧画面Aを表示部21上に表示する。
The
操作受付部111が詳細画面Bを表示するための操作を受け付けた場合に(S12のNO)、コンテンツ取得部112は、操作受付部111が受け付けた情報が示すコンテンツに関連付けられた、画像B1のデータと、文章B2のデータとを、コンテンツ記憶部121から取得する(S19)。
When the operation reception unit 111 receives an operation for displaying the detail screen B (NO in S12), the
送信部115は、ステップS19でコンテンツ取得部112が取得した画像B1及び文章B2を含む詳細画面Bを表示するための情報を表示端末2へ送信する(S20)。表示端末2は、配信サーバ1から受信した情報に基づいて、詳細画面Bを表示部21上に表示する。
The
図7に例示したフローチャートにおいて、配信サーバ1は、一覧画面Aを表示するタイミングで一覧画面Aに含まれるコンテンツの画像B1について部分画像A1を生成し、一覧画面Aに含まれないコンテンツの画像B1については部分画像A1を生成しない。そのため、配信サーバ1は、コンテンツ記憶部121が部分画像A1を記憶するために必要な容量を削減できる。別の方法として、配信サーバ1は、画像B1をコンテンツ記憶部121に記憶するタイミングで全ての画像B1について部分画像A1を生成してもよい。この場合には、配信サーバ1は、一覧画面Aを表示する際に部分画像A1を生成する処理を行わないため、表示に掛かる時間を短縮できる。
In the flowchart illustrated in FIG. 7, the distribution server 1 generates a partial image A1 for the image B1 of the content included in the list screen A at the timing of displaying the list screen A, and the image B1 of the content not included in the list screen A. Does not generate a partial image A1. Therefore, the distribution server 1 can reduce the capacity required for the
[実施形態の効果]
本実施形態に係る配信サーバ1は、画像B1の中で人物又はマークを含む範囲Rを特定し、画像B1から範囲Rを切り出すことによって部分画像A1を生成して送信する。そのため、部分画像A1にコンテンツの内容に関連する被写体が含まれる蓋然性が高くなり、ユーザに対してコンテンツの内容がわかりやすい部分画像A1を提供できる。
[Effect of embodiment]
The distribution server 1 according to the present embodiment identifies a range R including a person or a mark in the image B1 and cuts out the range R from the image B1 to generate and transmit a partial image A1. Therefore, it is highly probable that the partial image A1 includes a subject related to the content of the content, and the partial image A1 in which the content of the content is easy to understand can be provided to the user.
[変形例]
上述の例では配信サーバ1が部分画像A1を生成しているが、表示端末2が部分画像A1を生成してもよい。この場合に、表示端末2は、上述の操作受付部111、コンテンツ取得部112、範囲特定部113及び部分画像生成部114を有する制御部11を備える。コンテンツ記憶部121及び特徴情報記憶部122のデータは、配信サーバ1の記憶部12に記憶されてもよく、表示端末2の記憶部に記憶されてもよい。
[Modification example]
In the above example, the distribution server 1 generates the partial image A1, but the
本変形例に係る表示端末2において、操作受付部111は、一覧画面Aを表示するための操作を示す情報を操作部22から受け付ける。コンテンツ取得部112は、操作受付部111が一覧画面Aを表示するための操作を示す情報を受け付けた場合に、一覧画面Aに表示される1つ以上のコンテンツに関連付けられた、部分画像A1のデータと、見出しA2のデータとを、配信サーバ1から受信して取得する。
In the
一覧画面Aに表示されるコンテンツに関連付けられた部分画像A1のデータがコンテンツ記憶部121に記憶されていない場合に、コンテンツ取得部112は、一覧画面Aに表示されるコンテンツに含まれる画像B1のデータを、配信サーバ1から受信して取得する。範囲特定部113及び部分画像生成部114は、上述の方法によって、あるいは後述の第2の実施形態又は第3の実施形態に係る方法によって、画像B1に基づいて部分画像A1を生成する。
When the data of the partial image A1 associated with the content displayed on the list screen A is not stored in the
表示部21は、配信サーバ1から受信した情報と、範囲特定部113及び部分画像生成部114が生成した部分画像A1とに基づいて、図3(a)に例示した一覧画面Aを表示する。
The
また、操作受付部111は、一覧画面Aにおいて選択された部分画像A1又は見出しA2に関連付けられたコンテンツを示す情報を操作部22から受け付ける。コンテンツ取得部112は、操作受付部111が受け付けた情報が示すコンテンツに関連付けられた、画像B1のデータと、文章B2のデータとを、配信サーバ1から受信して取得する。
Further, the operation reception unit 111 receives information indicating the content associated with the partial image A1 or the heading A2 selected on the list screen A from the
表示部21は、配信サーバ1から受信した情報に基づいて、図3(b)に例示した詳細画面Bを表示する。
The
このように、表示端末2が画像B1に基づいて部分画像A1を生成して表示することによって、表示端末2の計算リソースを活用できる。
In this way, the
(第2の実施形態)
第1の実施形態に係る配信サーバ1は一般的な人物及びマークを検出することによって部分画像A1を生成するのに対して、本実施形態に係る配信サーバ1は画像の中で特定の人物及びマークを認識することによって部分画像A1を生成する。以下では第1の実施形態と異なる点を主に説明する。
(Second embodiment)
The distribution server 1 according to the first embodiment generates a partial image A1 by detecting a general person and a mark, whereas the distribution server 1 according to the present embodiment has a specific person and a specific person in the image. The partial image A1 is generated by recognizing the mark. Hereinafter, the differences from the first embodiment will be mainly described.
図8は、本実施形態に係る配信システムSのブロック図である。本実施形態に係る配信サーバ1の記憶部12は、コンテンツ記憶部121及び特徴情報記憶部122に加えて、ユーザ情報記憶部123を有する。ユーザ情報記憶部123は、表示端末2のユーザに関する情報を示すユーザ情報のデータを記憶する。ユーザ情報記憶部123は、記憶部12上の記憶領域であってもよく、あるいは記憶部12上で構成されたデータベースであってもよい。
FIG. 8 is a block diagram of the distribution system S according to the present embodiment. The
図9は、特徴情報記憶部122が記憶している特徴情報Cの模式図である。特徴情報Cは、画像の中で人物、マーク等の被写体を検出するための特徴量を示す情報である。本実施形態では、人物及びマークは、特定の人物(すなわち個人)及び特定のマーク(すなわち特定の会社のロゴ等)である。特徴情報記憶部122は、特定の1人又は複数の人物の特徴情報Cを記憶している。また、特徴情報記憶部122は、特定の1つ又は複数のマークの特徴情報Cを記憶している。
FIG. 9 is a schematic diagram of the feature information C stored in the feature
特徴情報Cは、名称C3と、名称C3に関連付けられた特徴量C2とを示す。名称C3は、人物の名称(氏名、愛称等)、集団の名称(会社名、略称等)である。特徴量C2の定義は、第1の実施形態と同様である。 The feature information C indicates the name C3 and the feature amount C2 associated with the name C3. The name C3 is the name of a person (name, nickname, etc.) and the name of a group (company name, abbreviation, etc.). The definition of the feature amount C2 is the same as that of the first embodiment.
図10は、ユーザ情報記憶部123が記憶しているユーザ情報Dの模式図である。ユーザ情報Dは、表示端末2のユーザに関する情報である。ユーザ情報記憶部123は、各ユーザのユーザ情報Dを予め記憶している。
FIG. 10 is a schematic diagram of the user information D stored in the user
ユーザ情報Dは、ユーザの識別情報D1と、嗜好D2とを示す。識別情報D1は、ユーザを識別するための識別情報(ユーザID、電話番号、メールアドレス等)である。嗜好D2は、ユーザが好む人物又は集団の名称である。 The user information D indicates the user's identification information D1 and the preference D2. The identification information D1 is identification information (user ID, telephone number, e-mail address, etc.) for identifying the user. Preference D2 is the name of a person or group preferred by the user.
配信サーバ1は、ユーザが過去に詳細画面Bのコンテンツを閲覧した履歴に基づいて、嗜好D2を判定してもよい。例えば配信サーバ1は、1人のユーザがある人物又は集団の名称を含むコンテンツを所定回数以上表示した場合に、該ユーザの識別情報D1と、該人物又は集団の名称を示す嗜好D2とを関連付けて、ユーザ情報Dとしてユーザ情報記憶部123に記憶させる。
The distribution server 1 may determine the preference D2 based on the history of the user browsing the content of the detail screen B in the past. For example, when one user displays content including the name of a certain person or group a predetermined number of times or more, the distribution server 1 associates the identification information D1 of the user with the preference D2 indicating the name of the person or group. Then, it is stored in the user
また、配信サーバ1は、ユーザに対して好みの人物又は集団の名称を回答させるアンケートを取り、該ユーザの識別情報D1と、該人物又は集団の名称を示す嗜好D2とを関連付けて、ユーザ情報Dとしてユーザ情報記憶部123に記憶させてもよい。
Further, the distribution server 1 takes a questionnaire to ask the user to answer the name of the person or group of preference, associates the identification information D1 of the user with the preference D2 indicating the name of the person or group, and user information. It may be stored in the user
図9、図10において特徴情報C及びユーザ情報Dは視認性のために文字列の表で表されているが、各データは任意の形式で記録されてもよく、例えば文字列データ、数値データおよびバイナリデータのいずれでもよい。特徴情報C及びユーザ情報Dは、データベースとして記録されてもよく、あるいはデータを列挙したリストとして記録されてもよい。 In FIGS. 9 and 10, the feature information C and the user information D are represented by a table of character strings for visibility, but each data may be recorded in any format, for example, character string data and numerical data. And binary data. The feature information C and the user information D may be recorded as a database or may be recorded as a list listing data.
図11(a)、図11(b)、図11(c)は、範囲特定部113及び部分画像生成部114が画像B1に基づいて部分画像A1を生成する方法の模式図である。図11(a)、図11(b)は、画像B1及び文章B2に基づいて人物又はマークを含む部分画像A1を生成する方法を表している。まず範囲特定部113は、一覧画面Aに表示されるコンテンツに含まれる画像B1及び文章B2のデータをコンテンツ記憶部121から取得するとともに、特徴情報Cを特徴情報記憶部122から取得する。
11 (a), 11 (b), and 11 (c) are schematic views of a method in which the
範囲特定部113は、文章B2を読み込み、文章B2に含まれている名称C3を検出する。範囲特定部113は、文章B2に含まれている名称C3に関連付けられた特徴量C2を、特徴情報Cから取得する。範囲特定部113は、文章B2に含まれている名称C3に関連付けられた特徴量C2(すなわち基準特徴量)と、画像B1の中の各位置について算出した特徴量とを比較することによって、人物又はマークを検出する。そして範囲特定部113は、画像B1の中で人物又はマークを検出した位置を含む所定の大きさの範囲Rを特定する。
The
図11(a)は文章B2に人物の名称が含まれていた場合の例を示しており、範囲特定部113は画像B1の中で該人物の顔を含む範囲Rを特定している。図11(b)は文章B2に集団の名称が含まれていた場合の例を示しており、範囲特定部113は画像B1の中で該集団のマークを含む範囲Rを特定している。
FIG. 11A shows an example in which the name of the person is included in the sentence B2, and the
部分画像生成部114は、画像B1の中で、範囲特定部113が特定した範囲Rを切り出すことによって部分画像A1を生成し、元の画像B1を含むコンテンツと関連付けてコンテンツ記憶部121に記憶させる。このように、配信サーバ1は、文章B2に含まれる人物又は集団の名称に対応する人物又はマークを含む範囲Rを画像B1の中で特定して部分画像A1に反映するため、ユーザにとってコンテンツの内容がわかりやすいだけでなくコンテンツの文章B2の内容に合致した部分画像A1を生成し、表示端末2へ送信できる。
The partial
ここでは範囲特定部113は文章B2に含まれている名称C3を検出した後に名称C3に対応する人物又はマークを画像B1の中で検出する処理を説明したが、逆に画像B1の中で複数の人物又はマークを検出した後に文章B2に含まれている名称C3に対応する人物又はマークを選択してもよい。この場合に、まず範囲特定部113は、画像B1の中で1つ又は複数の人物又はマークを検出する。画像B1の中で1つの人物又はマークを検出した場合に、範囲特定部113は、該1つの人物又はマークを含む範囲Rを特定する。
Here, the
画像B1の中で複数の人物又はマークを検出した場合に、範囲特定部113は、検出した複数の人物又はマークのそれぞれについて特徴情報Cが示す名称C3を取得する。そして範囲特定部113は、検出した複数の人物又はマークに対応する名称C3それぞれについて、文章B2に含まれているか否かを判定する。そして範囲特定部113は、文章B2に含まれている名称C3に対応する1つ又は複数の人物又はマークを含む範囲Rを特定する。このような処理によっても、配信サーバ1は、コンテンツの文章B2の内容に合致した部分画像A1を生成し、表示端末2へ送信できる。
When a plurality of persons or marks are detected in the image B1, the
図11(c)は、画像B1及びユーザ情報Dに基づいて人物又はマークを含む部分画像A1を生成する方法を表している。まず範囲特定部113は、一覧画面Aに表示されるコンテンツに含まれる画像B1のデータをコンテンツ記憶部121から取得し、特徴情報Cを特徴情報記憶部122から取得するとともに、ユーザ情報Dをユーザ情報記憶部123から取得する。
FIG. 11C shows a method of generating a partial image A1 including a person or a mark based on the image B1 and the user information D. First, the
範囲特定部113は、ユーザ情報Dが示す嗜好D2に合致する名称C3に関連付けられた特徴量C2を、特徴情報Cから取得する。範囲特定部113は、嗜好D2に合致する名称C3に関連付けられた特徴量C2(すなわち基準特徴量)と、画像B1の中の各位置について算出した特徴量とを比較することによって、人物又はマークを検出する。そして範囲特定部113は、画像B1の中で人物又はマークを検出した位置を含む所定の大きさの範囲Rを特定する。
The
図11(c)はユーザの嗜好D2に合致する人物が画像B1に含まれている場合の例を示しており、範囲特定部113は画像B1の中で該人物の顔を含む範囲Rを特定している。
FIG. 11C shows an example in which a person matching the user's preference D2 is included in the image B1, and the
部分画像生成部114は、画像B1の中で、範囲特定部113が特定した範囲Rを切り出すことによって部分画像A1を生成し、元の画像B1を含むコンテンツと関連付けてコンテンツ記憶部121に記憶させる。このように、配信サーバ1は、ユーザの嗜好D2に合致する人物又は集団の名称に対応する人物又はマークを含む範囲Rを画像B1の中で特定して部分画像A1に反映するため、ユーザにとってコンテンツの内容がわかりやすいだけでなくユーザの嗜好D2に合致した部分画像A1を生成し、表示端末2へ送信できる。
The partial
ここでは範囲特定部113はユーザの嗜好D2に合致する名称C3を検出した後に名称C3に対応する人物又はマークを画像B1の中で検出する処理を説明したが、逆に画像B1の中で複数の人物又はマークを検出した後にユーザの嗜好D2に合致する名称C3に対応する人物又はマークを選択してもよい。この場合に、まず範囲特定部113は、画像B1の中で1つ又は複数の人物又はマークを検出する。画像B1の中で1つの人物又はマークを検出した場合に、範囲特定部113は、該1つの人物又はマークを含む範囲Rを特定する。
Here, the
画像B1の中で複数の人物又はマークを検出した場合に、範囲特定部113は、検出した複数の人物又はマークのそれぞれについて特徴情報Cが示す名称C3を取得する。そして範囲特定部113は、検出した複数の人物又はマークに対応する名称C3それぞれについて、ユーザの嗜好D2に合致するか否かを判定する。そして範囲特定部113は、ユーザの嗜好D2に合致する名称C3に対応する1つ又は複数の人物又はマークを含む範囲Rを特定する。このような処理によっても、配信サーバ1は、ユーザの嗜好D2に合致した部分画像A1を生成し、表示端末2へ送信できる。
When a plurality of persons or marks are detected in the image B1, the
[変形例]
本変形例において、配信サーバ1は、ユーザ情報Dが示すユーザの属性に基づいて、部分画像A1の大きさ又は範囲Rの大きさを変更する。図12は、ユーザ情報記憶部123が記憶しているユーザ情報Dの模式図である。ユーザ情報Dは、ユーザの属性として年齢D3及び視力D4を、ユーザの識別情報D1と関連付けて示す。年齢D3はユーザの年齢であり、視力D4はユーザの視力である。ユーザ情報Dは、さらに図10と同様の嗜好D2を示してもよい。ユーザの属性として、ユーザ年齢及び視力以外の値を用いてもよい。
[Modification example]
In this modification, the distribution server 1 changes the size of the partial image A1 or the size of the range R based on the attribute of the user indicated by the user information D. FIG. 12 is a schematic diagram of the user information D stored in the user
配信サーバ1は、例えばユーザに対して年齢及び視力を回答させるアンケートを取り、該ユーザの識別情報D1と、回答が示す年齢D3及び視力D4とを関連付けて、ユーザ情報Dとしてユーザ情報記憶部123に予め記憶させる。
For example, the distribution server 1 takes a questionnaire to ask the user to answer the age and visual acuity, associates the user's identification information D1 with the age D3 and the visual acuity D4 indicated by the answer, and records the user information D as the user
部分画像生成部114は、ユーザ情報Dの年齢D3及び視力D4の少なくとも一方に基づいて、部分画像A1の大きさを変更する。例えば部分画像生成部114は、年齢D3が所定値以上である場合に、そうでない場合よりも大きい部分画像A1を生成する。また、例えば部分画像生成部114は、視力D4が所定値以下である場合に、そうでない場合よりも大きい部分画像A1を生成する。これにより配信サーバ1は、高齢のユーザ又は視力が低いユーザに対してより大きい部分画像A1を提供することができ、ユーザにとって一覧画面Aを見やすくできる。
The partial
また、範囲特定部113は、ユーザ情報Dの年齢D3及び視力D4の少なくとも一方に基づいて、範囲Rの大きさを変更する。例えば部分画像生成部114は、年齢D3が所定値以上である場合に、そうでない場合よりも小さい範囲Rを特定する。また、例えば部分画像生成部114は、視力D4が所定値以下である場合に、そうでない場合よりも小さい範囲Rを特定する。同じ大きさの部分画像A1であれば、画像B1の中の範囲Rが小さいほど、部分画像A1中の被写体が相対的に大きくなる。そのため、配信サーバ1は、高齢のユーザ又は視力が低いユーザに対して被写体が大きく写った部分画像A1を提供することができ、ユーザにとって一覧画面Aを見やすくできる。
Further, the
(第3の実施形態)
本実施形態に係る配信サーバ1は、1つの画像B1に基づいて互いに異なる複数の部分画像A1を生成し、ユーザの選択状況に応じていずれかの部分画像A1を選択的に送信する。以下では第1の実施形態と異なる点を主に説明する。
(Third embodiment)
The distribution server 1 according to the present embodiment generates a plurality of different partial images A1 based on one image B1, and selectively transmits one of the partial images A1 according to the user's selection status. Hereinafter, the differences from the first embodiment will be mainly described.
範囲特定部113は、画像B1の中で複数の人物又はマークを検出した場合に、複数の人物又はマークのそれぞれを含む複数の範囲Rを特定する。部分画像生成部114は、画像B1から複数の範囲Rのそれぞれを切り出すことによって複数の部分画像A1を生成する。
When a plurality of persons or marks are detected in the image B1, the
図13は、一覧画面Aにおけるユーザの選択状況を示す模式図である。図13の例では、部分画像生成部114は、同じコンテンツの画像B1に対して、複数の部分画像A1a、A1bを生成した。配信サーバ1の送信部115は、複数のユーザU1、U2、U3の表示端末2に対して、無作為に部分画像A1a及び部分画像A1bのどちらかを送信した。ユーザU1、U2は、一覧画面Aにおいて部分画像A1aに関連付けられたコンテンツを選択し、ユーザU3は、一覧画面Aにおいて部分画像A1bに関連付けられたコンテンツを選択しなかった。したがって、部分画像A1aの選択率は、部分画像A1bの選択率よりも高いといえる。
FIG. 13 is a schematic diagram showing a user's selection status on the list screen A. In the example of FIG. 13, the partial
配信サーバ1において、部分画像生成部114は、複数のユーザによる複数の部分画像A1の選択状況を取得する。そして部分画像生成部114は、取得した選択状況を統計処理し、複数の部分画像A1の選択率に有意差が発生した段階で、複数の部分画像A1のうち選択率がより高い1つの部分画像A1を選択する。これ以降に同じコンテンツを一覧画面Aに表示する場合に、送信部115は、部分画像生成部114が選択した部分画像A1を送信する。このように配信サーバ1は、複数の部分画像A1を生成し、ユーザの選択状況に基づいて部分画像A1を統計的に選択して送信するため、ユーザに選択されやすい(すなわちユーザの興味を引きやすい)部分画像A1を提供できる。
In the distribution server 1, the partial
範囲特定部113及び部分画像生成部114は、複数のユーザによる複数の部分画像A1の選択状況を機械学習することによって、次回以降に部分画像A1を生成する際に、学習結果に基づいてより適した範囲Rを特定してもよい。範囲特定部113及び部分画像生成部114は、機械学習の方法として、ディープラーニング(ディープニューラルネットワーク)等の既知の方法を用いることができる。
The
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, the specific embodiment of the distribution / integration of the device is not limited to the above embodiment, and all or a part thereof may be functionally or physically distributed / integrated in any unit. Can be done. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment together.
配信サーバ1及び表示端末2のプロセッサは、図7に示す方法に含まれる各ステップ(工程)の主体となる。すなわち、配信サーバ1及び表示端末2のプロセッサは、図7に示す方法を実行するためのプログラムを記憶部から読み出し、該プログラムを実行して配信システムSの各部を制御することによって、図7に示す方法を実行する。図7に示す方法に含まれるステップは一部省略されてもよく、ステップ間の順番が変更されてもよく、複数のステップが並行して行われてもよい。
The processor of the distribution server 1 and the
S 配信システム
1 配信サーバ
11 制御部
112 コンテンツ取得部
113 範囲特定部
114 部分画像生成部
115 送信部
12 記憶部
2 表示端末
S Distribution system 1
Claims (8)
前記画像の中で被写体の特徴量を算出し、前記文章に含まれている人物又は集団の名称に関連付けられた、当該名称に対応する人物又はマークの基準特徴量を記憶部から取得し、算出した前記特徴量及び取得した前記基準特徴量に基づいて前記画像の一部の当該名称に対応する人物又はマークを含む範囲を特定する特定部と、
前記画像の中で前記範囲を切り出すことによって部分画像を生成する生成部と、
前記部分画像を含む第1画面を表示するための情報を表示端末へ送信する送信部と、
前記表示端末から、前記第1画面においてユーザが行った操作を示す情報を受信する受付部と、
を有し、
前記送信部は、前記受付部が、前記第1画面において前記コンテンツに関連付けられた要素を前記ユーザが選択したことを示す情報を受信した場合に、前記コンテンツを含む第2画面を表示するための情報を前記表示端末へ送信する、
配信装置。 The acquisition unit that acquires content including images and sentences,
The feature amount of the subject is calculated in the image, and the reference feature amount of the person or mark corresponding to the name of the person or group included in the sentence is acquired from the storage unit and calculated. A specific part that specifies a range including a person or a mark corresponding to the name of a part of the image based on the feature amount obtained and the reference feature amount acquired .
A generation unit that generates a partial image by cutting out the range in the image,
A transmission unit that transmits information for displaying the first screen including the partial image to the display terminal, and a transmission unit.
A reception unit that receives information indicating an operation performed by the user on the first screen from the display terminal.
Have,
The transmitting unit is for displaying a second screen including the content when the receiving unit receives information indicating that the user has selected an element associated with the content on the first screen. Sending information to the display terminal,
Delivery device.
前記送信部は、複数の前記部分画像のうち、複数の前記部分画像に対するユーザの選択状況に基づいて統計的に選択したいずれか1つの前記部分画像を含む前記第1画面を表示するための情報を前記表示端末へ送信する、請求項1から5のいずれか一項に記載の配信装置。 The generation unit generates a plurality of the partial images by cutting out the different ranges in the image.
Information for displaying the first screen including any one of the partial images statistically selected based on the user's selection status for the plurality of the partial images among the plurality of the partial images. The distribution device according to any one of claims 1 to 5 , wherein the image is transmitted to the display terminal.
画像及び文章を含むコンテンツを取得するステップと、
前記画像の中で被写体の特徴量を算出するステップと、
前記文章に含まれている人物又は集団の名称に関連付けられた、当該名称に対応する人物又はマークの基準特徴量を記憶部から取得するステップと、
算出した前記特徴量及び取得した前記基準特徴量に基づいて前記画像の一部の当該名称に対応する人物又はマークを含む範囲を特定するステップと、
前記画像の中で前記範囲を切り出すことによって部分画像を生成するステップと、
前記部分画像を含む第1画面を表示するための情報を表示端末へ送信するステップと、
前記表示端末から、前記第1画面においてユーザが行った操作を示す情報を受信するステップと、
前記受信するステップにおいて、前記第1画面において前記コンテンツに関連付けられた要素を前記ユーザが選択したことを示す情報を受信した場合に、前記コンテンツを含む第2画面を表示するための情報を前記表示端末へ送信するステップと、
を実行する配信方法。 The processor,
Steps to get content including images and text,
The step of calculating the feature amount of the subject in the image and
A step of acquiring the reference feature amount of the person or mark corresponding to the name of the person or group included in the sentence from the storage unit, and
A step of specifying a range including a person or a mark corresponding to the name of a part of the image based on the calculated feature amount and the acquired reference feature amount .
A step of generating a partial image by cutting out the range in the image,
A step of transmitting information for displaying the first screen including the partial image to the display terminal, and
A step of receiving information indicating an operation performed by the user on the first screen from the display terminal, and
In the receiving step, when the user receives the information indicating that the user has selected the element associated with the content on the first screen, the information for displaying the second screen including the content is displayed. Steps to send to the terminal and
Delivery method to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018175184A JP7036695B2 (en) | 2018-09-19 | 2018-09-19 | Distribution device and distribution method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018175184A JP7036695B2 (en) | 2018-09-19 | 2018-09-19 | Distribution device and distribution method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020046969A JP2020046969A (en) | 2020-03-26 |
JP7036695B2 true JP7036695B2 (en) | 2022-03-15 |
Family
ID=69901594
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018175184A Active JP7036695B2 (en) | 2018-09-19 | 2018-09-19 | Distribution device and distribution method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7036695B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013164431A (en) | 2012-02-09 | 2013-08-22 | Nikon Corp | Display device and display system |
WO2016210052A1 (en) | 2015-06-26 | 2016-12-29 | Rovi Guides, Inc. | Systems and methods for automatic formatting of images for media assets based on user profile |
WO2018083767A1 (en) | 2016-11-02 | 2018-05-11 | 楽天株式会社 | Information processing device, information processing method, program, and storage medium |
-
2018
- 2018-09-19 JP JP2018175184A patent/JP7036695B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013164431A (en) | 2012-02-09 | 2013-08-22 | Nikon Corp | Display device and display system |
WO2016210052A1 (en) | 2015-06-26 | 2016-12-29 | Rovi Guides, Inc. | Systems and methods for automatic formatting of images for media assets based on user profile |
WO2018083767A1 (en) | 2016-11-02 | 2018-05-11 | 楽天株式会社 | Information processing device, information processing method, program, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2020046969A (en) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104572846B (en) | A kind of hot word recommendation methods, devices and systems | |
US8510287B1 (en) | Annotating personalized recommendations | |
JP4947477B1 (en) | RECOMMENDATION DEVICE, RECOMMENDATION METHOD, AND RECOMMENDATION PROGRAM | |
JP5548723B2 (en) | Information processing apparatus, information processing method, and information processing program | |
JP6185216B1 (en) | Information providing system, information providing apparatus, information providing method, and program | |
US9239961B1 (en) | Text recognition near an edge | |
US20130044922A1 (en) | Information processing device, information processing method, program, and information processing system | |
EP2612262A1 (en) | Methods, apparatuses and computer program products for determining shared friends of individuals | |
WO2014000645A1 (en) | Interacting method, apparatus and server based on image | |
US20200302897A1 (en) | Business card management system and card case | |
JP7307607B2 (en) | Method, computer program and computing device for facilitating media-based content sharing | |
JP2008262362A (en) | Information communication system, facility side device, user side device, program for facility side device, and program for user side device | |
CN106030578B (en) | Search system and control method of search system | |
JP2021183015A (en) | Content providing system and content providing method | |
US20190012370A1 (en) | Information processing apparatus | |
JP7036695B2 (en) | Distribution device and distribution method | |
CN102782714A (en) | Advertisement distribution server and advertisement distribution method | |
US20160261826A1 (en) | Terminal, system, display method, and recording medium storing a display program | |
JP2019212039A (en) | Information processing device, information processing method, program, and information processing system | |
JPH10320454A (en) | Mail ordering method using internet | |
KR20200024404A (en) | Apparel Recommendation Method and System for User-owned Costume Using Clothing Data and Deep Learning | |
JP5134882B2 (en) | Content management device | |
JP2015225398A (en) | Design management device and program | |
JP6211337B2 (en) | Data transmission device, data storage device, data display device, data search device, data transmission method, data storage method, data display method and data search method | |
JP2013196107A (en) | Image processing system, image processing method, server, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200306 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220303 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7036695 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |