JP6569183B2 - Information processing apparatus, method, and program - Google Patents

Information processing apparatus, method, and program Download PDF

Info

Publication number
JP6569183B2
JP6569183B2 JP2017148451A JP2017148451A JP6569183B2 JP 6569183 B2 JP6569183 B2 JP 6569183B2 JP 2017148451 A JP2017148451 A JP 2017148451A JP 2017148451 A JP2017148451 A JP 2017148451A JP 6569183 B2 JP6569183 B2 JP 6569183B2
Authority
JP
Japan
Prior art keywords
image
contributor
preference
comment
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017148451A
Other languages
Japanese (ja)
Other versions
JP2019028793A (en
Inventor
睦 高松
睦 高松
求 渡辺
求 渡辺
孝太郎 高島
孝太郎 高島
Original Assignee
Aiq株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aiq株式会社 filed Critical Aiq株式会社
Priority to JP2017148451A priority Critical patent/JP6569183B2/en
Publication of JP2019028793A publication Critical patent/JP2019028793A/en
Application granted granted Critical
Publication of JP6569183B2 publication Critical patent/JP6569183B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明の実施形態は、情報処理装置、方法及びプログラムに関する。   Embodiments described herein relate generally to an information processing apparatus, a method, and a program.

多くの電子商取引(EC:Electronic Commerce)では、登録会員に推奨商品を紹介することがなされている。例えば購入履歴からその会員の嗜好を推定し、推定した嗜好に整合する商品を特定する。またインターネット広告の配信においてもスマートフォン(Smartphone)等の携帯情報端末でその閲覧履歴に基づいて嗜好を推定し、推定した嗜好に合致するバナー等の広告をコンテンツと共に表示させることがなされている。   In many electronic commerce (EC), recommended products are introduced to registered members. For example, the preference of the member is estimated from the purchase history, and a product that matches the estimated preference is specified. Also in the distribution of Internet advertisements, preference is estimated based on the browsing history with a portable information terminal such as a smartphone, and advertisements such as banners that match the estimated preference are displayed together with the content.

購入履歴はそれを購入する本人の主観的で積極的な意思を直接的に反映しており、それを基に嗜好を解析することはその嗜好範囲を狭小化させてしまう恐れがある。一方、閲覧履歴はそれを閲覧する本人の消極的な意思を含む恐れがあり、それを基に得た嗜好傾向は誤差成分を含み精度が低い恐れがある。   The purchase history directly reflects the subjective and positive intention of the person who purchases the purchase history, and analyzing the preference based on the purchase history may narrow the preference range. On the other hand, the browsing history may include a negative intention of the person browsing the browsing history, and the preference tendency obtained based on the browsing history may include an error component and have low accuracy.

目的は、適正な嗜好傾向を精度良く取得できる情報処理装置及びプログラムを提供することにある。   An object is to provide an information processing apparatus and a program that can acquire an appropriate preference tendency with high accuracy.

本実施形態に係る情報処理装置は、SNSサービス、ECサービス又は動画投稿閲覧サービスを提供するサーバに対して投稿者が投稿した画像及びそれに付帯する投稿者による投稿者コメントを含むコンテンツデータをサーバからダウンロードし、投稿者の嗜好傾向を解析する。抽出手段はコンテンツデータから画像と投稿者コメントを抽出する。言語解析手段は投稿者コメントを言語処理して名詞、形容詞、副詞を抽出する。嗜好推定手段は抽出された形容詞又は副詞に基づいて投稿者の主観的な嗜好の極性及び程度を推定する。オブジェクトに関する種類を多階層に分類して各階層の種類から、より下位の種類を識別するために、複数の識別器が複数の階層ごと及び複数の種類に対して個々に用意されている。投稿者コメントから抽出された名詞に基づいて特定の識別器が複数の識別器から選択される。嗜好情報生成手段は、選択された識別器により識別された画像内のオブジェクトに関する、より下位の種類に、推定された主観的な嗜好の極性及び程度を関連付けることにより投稿者に関する嗜好情報を生成する。   The information processing apparatus according to the present embodiment receives, from the server, content data including an image posted by a contributor to a server that provides an SNS service, an EC service, or a video posting browsing service and a contributor comment by a contributor. Download and analyze the author's preference trends. The extraction means extracts images and poster comments from the content data. The language analysis means performs language processing on the contributor comment to extract nouns, adjectives, and adverbs. The preference estimating means estimates the poster's subjective preference polarity and degree based on the extracted adjectives or adverbs. In order to classify the types related to the object into multiple hierarchies and discriminate lower types from the types of the respective hierarchies, a plurality of classifiers are individually prepared for each of the plurality of hierarchies and the plurality of types. A specific classifier is selected from a plurality of classifiers based on the noun extracted from the poster comment. The preference information generating means generates the preference information about the poster by associating the estimated subjective preference polarity and degree with the lower-level type regarding the object in the image identified by the selected classifier. .

図1は、本実施形態に係る嗜好情報生成処理装置(情報処理装置)を含む全体構成図である。FIG. 1 is an overall configuration diagram including a preference information generation processing device (information processing device) according to the present embodiment. 図2は、本実施形態に係る情報処理装置の構成図である。FIG. 2 is a configuration diagram of the information processing apparatus according to the present embodiment. 図3は、図1の情報処理装置の機能ブロック図である。FIG. 3 is a functional block diagram of the information processing apparatus of FIG. 図4は、本実施形態における情報処理の動作手順を示すフローチャートである。FIG. 4 is a flowchart showing an operation procedure of information processing in the present embodiment. 図5は、図3の画像解析部を構成する複数の識別器の階層を示す図である。FIG. 5 is a diagram showing a hierarchy of a plurality of discriminators constituting the image analysis unit of FIG. 図6は、図3の嗜好解析部で嗜好極性解析に用いるテーブルの一例を示す図である。FIG. 6 is a diagram illustrating an example of a table used for preference polarity analysis in the preference analysis unit of FIG. 3. 図7は、図3の嗜好解析部で嗜好程度解析に用いるテーブルの一例を示す図である。FIG. 7 is a diagram illustrating an example of a table used for preference degree analysis by the preference analysis unit of FIG. 3. 図8は、図3の動画解析部による静止画抽出処理の補足説明図である。FIG. 8 is a supplementary explanatory diagram of still image extraction processing by the moving image analysis unit of FIG. 3.

以下、図面を参照して本発明の実施形態について説明する。本実施形態は、人と人とのつながりを促進・サポートするコミュニティ型のサービスとしてソーシャルネットワーキングサービス(以下「SNS」という)、インターネットなどのネットワークを介して商品やサービスをウェブサイトで販売するサービスを展開するEC(electronic commerce、電子商取引)サービス、YouTube(登録商標)等の動画投稿閲覧サービス等の画像(写真(静止画)、一連の静止画から構成される動画を含む)とそれに付帯するコメント(テキスト)がコンテンツとして投稿されるインターネットサービスに関連する。ここでは「フェイスブック(登録商標)」、「ツイッター(登録商標)」、「インスタグラム(登録商標)」を代表例とするSNSサービスを例に説明する。これらSNSは自分のプロフィールや趣味等に関する写真を自身のコメントと共に投稿するとともに、閲覧者もコメントを投稿できるコミュニティ性の高いインターネット上のサービスである。なお、画像を投稿するユーザを特に「画像投稿者」といい、それを閲覧するユーザを「閲覧者」として両者を区別するものとする。コメントとしても画像投稿者が自ら投稿したコメントを「画像投稿者コメント」、閲覧者が投稿したコメントを「閲覧者コメント」と称して両者を区別する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a social networking service (hereinafter referred to as “SNS”) as a community-type service that promotes and supports a connection between people, and a service that sells products and services on a website via a network such as the Internet. Images (including photographs (still images) and videos composed of a series of still images) such as EC (electronic commerce) services, YouTube (registered trademark) video posting browsing services, etc. and accompanying comments (Text) is related to Internet services that are posted as content. Here, an SNS service using “Facebook (registered trademark)”, “Twitter (registered trademark)”, and “Instagram (registered trademark)” as representative examples will be described. These SNSs are high-community services on the Internet that allow users to post comments about their profile, hobbies, etc., along with their own comments. A user who submits an image is particularly referred to as an “image contributor”, and a user who browses the image is referred to as a “viewer” to distinguish between the two. A comment posted by an image contributor himself is also referred to as an “image contributor comment”, and a comment posted by a viewer is referred to as a “viewer comment” to distinguish between the two.

図1に示すように本実施形態における情報処理装置20は、公衆通信回線網(インターネット回線)30に接続される。インターネット回線30にはSNSサーバ10、画像投稿者や閲覧者などのSNSユーザのPC、スマートフォン、PHS、PDA、タブレット端末などユーザ所有の情報端末40が接続される。SNSユーザは自己の情報端末40を介してSNSサーバ10と通信することで、SNSサーバ10が提供するSNSサービスを受けることができる。画像投稿者は、自己の情報端末40を介してSNSサーバ10に対してコンテンツ(プロフィール、画像、コメント)をアップロードすることができる。閲覧者は、自己の情報端末40を介してSNSサーバ10にアップロードした画像投稿者のコンテンツを閲覧し、また適宜、その画像に対するコメントをアップロードすることができる。   As shown in FIG. 1, the information processing apparatus 20 in this embodiment is connected to a public communication line network (Internet line) 30. The Internet line 30 is connected to an SNS server 10 and an information terminal 40 owned by a user such as a PC, a smartphone, a PHS, a PDA, or a tablet terminal of an SNS user such as an image poster or a viewer. The SNS user can receive the SNS service provided by the SNS server 10 by communicating with the SNS server 10 through the information terminal 40 of the SNS user. An image contributor can upload content (profile, image, comment) to the SNS server 10 via his / her information terminal 40. The viewer can browse the content of the image contributor uploaded to the SNS server 10 via his / her information terminal 40 and can appropriately upload a comment on the image.

図2は、本実施形態における情報処理装置20の構成を示すブロック図である。情報処理装置20は、例えばコンピュータにより実現されるもので、プロセッサ201、RAM202、ROM203、入力コントローラ204、ビデオコントローラ205、I/Oコントローラ206、通信装置207、入力デバイス210、ディスプレイ211及び記憶装置212を有する。なお、情報処理装置20は、プロセッサ201、RAM202、ROM203、入力コントローラ204、ビデオコントローラ205、I/Oコントローラ206、及び通信装置207を含む、コンピュータを構成する制御ユニット300として実現しても良い。   FIG. 2 is a block diagram showing a configuration of the information processing apparatus 20 in the present embodiment. The information processing apparatus 20 is realized by a computer, for example, and includes a processor 201, a RAM 202, a ROM 203, an input controller 204, a video controller 205, an I / O controller 206, a communication device 207, an input device 210, a display 211, and a storage device 212. Have Note that the information processing apparatus 20 may be realized as a control unit 300 constituting a computer including a processor 201, a RAM 202, a ROM 203, an input controller 204, a video controller 205, an I / O controller 206, and a communication device 207.

プロセッサ201は、システムバスに接続される各デバイスやコントローラを統括的に制御する。プロセッサ201は、例えばCPU(Central Processing Unit)、及びGPU(Graphics Processing Unit)により構成することができる。プロセッサ201は、RAM202に記憶されたプログラムを実行して各種の機能を実現する。プロセッサ201は、本実施形態に係る画像処理プログラムを実行することで、画像に映る人体の膝等の特定部位の位置を特定するための処理を実行する。   The processor 201 comprehensively controls each device and controller connected to the system bus. The processor 201 can be configured by, for example, a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit). The processor 201 executes programs stored in the RAM 202 to realize various functions. The processor 201 executes a process for specifying the position of a specific part such as a human knee shown in the image by executing the image processing program according to the present embodiment.

RAM202は、プロセッサ201の主メモリ、ワークエリア等として機能する。プロセッサ201は、処理の実行に際して必要なプログラム等をROM203あるいは記憶装置212からRAM202にロードして、ロードしたプログラムを実行することで各種動作を実現する。ROM203あるいは記憶装置212は、プロセッサ201により実行されるBIOS(Basic Input Output System)、オペレーティングシステムプログラム(OS)、本実施形態に係る嗜好解析処理プログラムなどの各種機能を実現するために必要な各種プログラム、各種プログラムで処理される各種ファイル、各種データ等が記憶される。   The RAM 202 functions as a main memory, work area, and the like for the processor 201. The processor 201 implements various operations by loading a program or the like necessary for execution of processing from the ROM 203 or the storage device 212 to the RAM 202 and executing the loaded program. The ROM 203 or the storage device 212 includes various programs necessary for realizing various functions such as a basic input output system (BIOS) executed by the processor 201, an operating system program (OS), and a preference analysis processing program according to the present embodiment. Various files processed by various programs, various data, and the like are stored.

入力コントローラ204で、キーボード(KB)、マウスやタッチパネル等のポインティングデバイス等の入力デバイス210からの入力を制御する。ビデオコントローラ205は、プロセッサ201の制御のもとで、LCD(Liquid Crystal Display)などのディスプレイの表示を制御する。I/Oコントローラ206は、記憶装置212へのアクセスを制御する。記憶装置212には、例えば画像処理プログラムによる部位特定処理の対象とする画像ファイル(静止画像、動画像)が記憶される。部位特定処理の対象とする人体が撮像された画像ファイルは、例えば通信装置207を通じて、外部の電子機器400から入力される。通信装置207は、インターネット回線30を介して外部のSNSサーバ10との通信を制御する。   An input controller 204 controls input from an input device 210 such as a keyboard (KB), a pointing device such as a mouse or a touch panel. The video controller 205 controls display of a display such as an LCD (Liquid Crystal Display) under the control of the processor 201. The I / O controller 206 controls access to the storage device 212. The storage device 212 stores, for example, an image file (still image or moving image) that is a target of the part specifying process by the image processing program. An image file in which a human body to be subjected to the part specifying process is captured is input from the external electronic device 400 through the communication device 207, for example. The communication device 207 controls communication with the external SNS server 10 via the Internet line 30.

図3は本実施形態に係る情報処理装置20の機能構成を示している。図4は本実施形態における嗜好解析処理の動作手順を示している。本実施形態に係る情報処理装置20は、通信装置301を介してSNSサーバ10から、画像投稿者が投稿した画像、画像投稿者によるコメントを含むコンテンツデータをダウンロードする(S1)。これら画像、画像投稿者によるコメントとともに、画像投稿者のプロフィール、当該画像やコメントを閲覧した閲覧者が投稿したコメント、音声データ等が適宜ダウンロードされる。セパレータ303は、各アプリケーションに応じた領域やタグ等に基づいて、ダウンロードしたコンテンツデータから、画像、画像投稿者コメント、画像投稿者のプロフィール、閲覧者コメント、音声データが分離される(S2)。画像データは、写真(静止画)であれば、オブジェクト抽出処理部307に供給される。画像データは、動画であれば、動画解析部305に供給される。動画解析部305は、動画を構成する一連の静止画の中から1枚の特定の静止画を抽出する。例えば図8に示すように動画を構成する一連の静止画の中から、閲覧者からのアクション数、例えば「いいね」やコメントが最大数に達した時点の静止画を選択する。選択された静止画はオブジェクト抽出処理部307に送られる。   FIG. 3 shows a functional configuration of the information processing apparatus 20 according to the present embodiment. FIG. 4 shows an operation procedure of preference analysis processing in the present embodiment. The information processing apparatus 20 according to the present embodiment downloads content data including an image posted by the image poster and a comment by the image poster from the SNS server 10 via the communication device 301 (S1). Along with these images and comments by image contributors, the image contributor's profile, comments posted by the viewer who viewed the images and comments, audio data, and the like are downloaded as appropriate. The separator 303 separates an image, an image contributor's comment, an image contributor's profile, a viewer's comment, and audio data from the downloaded content data based on the area and tag according to each application (S2). If the image data is a photograph (still image), it is supplied to the object extraction processing unit 307. If the image data is a moving image, the image data is supplied to the moving image analysis unit 305. The moving image analysis unit 305 extracts one specific still image from a series of still images constituting the moving image. For example, as shown in FIG. 8, a still image at the time when the number of actions from the viewer, for example, “Like” or a comment reaches the maximum number is selected from a series of still images constituting the moving image. The selected still image is sent to the object extraction processing unit 307.

言語解析部313は、画像投稿者コメント、閲覧者コメント、さらに音声データから変換されたテキストをテキストマイニング処理にかけて、品詞として名詞、形容詞、副詞を抽出する(S4)。なお、コメントに絵文字やスタンプ等の絵柄、記号、シンボルが含まれる場合、それらは形容詞として抽出する。画像投稿者コメントから抽出された名詞はほとんどの場合、その画像内の注目オブジェクトの種類を表している。画像投稿者コメントから抽出された名詞(それを表すコード)は識別器選択部315に供給され、形容詞及び副詞(それを表すコード)は嗜好解析部325に供給される。   The language analysis unit 313 extracts a noun, an adjective, and an adverb as part of speech by subjecting the image contributor comment, the viewer comment, and the text converted from the voice data to text mining processing (S4). In addition, when a comment includes a design such as a pictograph or a stamp, a symbol, or a symbol, they are extracted as an adjective. In most cases, the noun extracted from the image contributor's comment represents the type of the object of interest in the image. The noun extracted from the image contributor's comment (a code representing it) is supplied to the discriminator selection unit 315, and the adjective and adverb (the code representing it) are supplied to the preference analysis unit 325.

オブジェクト抽出処理部307は、供給された画像からオブジェクトを抽出し解析する(S5)。この処理は典型的には畳み込みニューラルネットワークが適用され、オブジェクトの種類(大分類)、オブジェクトの位置(フレーム内の区画)、オブジェクト領域の大きさ(フレームに対するオブジェクト領域のピクセル数の割合)が判断される。例えば図3の例では、画像内に3つのオブジェクトが含まれ、第1のオブジェクトとしては種類が「猫」であり、それが中央区画に位置し、サイズクラスが”大”である。同様に第2のオブジェクトは種類が「犬」であり、中央下区画に位置し、サイズクラスが”小”であり、第3のオブジェクトとしては種類が「猫」であり、それが左下区画に位置し、サイズクラスが”狭小”である。これらオブジェクト情報は部分画像切出部317に供給され、部分画像切出部317はオブジェクト情報に基づいてオリジナル画像から、ここでは3つの部分画像を切り出す(S6)。切り出された部分画像は画像選択部319に供給される。   The object extraction processing unit 307 extracts and analyzes an object from the supplied image (S5). This process is typically applied with a convolutional neural network, which determines the type of object (major classification), the position of the object (partition within the frame), and the size of the object area (ratio of the number of pixels in the object area to the frame). Is done. For example, in the example of FIG. 3, three objects are included in the image, and the type of the first object is “cat”, which is located in the central section, and the size class is “large”. Similarly, the second object is of type “Dog”, is located in the lower middle section, the size class is “Small”, and the third object is of type “Cat”, which is in the lower left section. Located and the size class is “narrow”. The object information is supplied to the partial image cutout unit 317, and the partial image cutout unit 317 cuts out three partial images from the original image based on the object information (S6). The clipped partial image is supplied to the image selection unit 319.

またオブジェクト情報は識別器選択部315に供給される。識別器選択部315は、言語解析部313で解析された名詞として特定されるオブジェクトの種類に整合する、画像解析部323を構成する複数の識別器323−1乃至〜323−nのいずれかを選択するための選択コマンドを画像解析部323に出力する(S7)。また識別器選択部315では、言語解析部313で解析された名詞として例えば「猫」と、オブジェクト情報の位置と大きさとに基づいて複数、ここでは3つのオブジェクトから一の注目オブジェクトを選択し、注目オブジェクトに対応する部分画像を選択させるための選択コマンドを画像選択部319に出力する。オブジェクト抽出処理部307で抽出されたオブジェクトの一が、言語解析部313で解析された名詞として特定されるオブジェクトの種類に一致するときには、そのオブジェクトを注目オブジェクトとして選択する。オブジェクト抽出処理部307で抽出されたオブジェクトのうち2以上のオブジェクトが、言語解析部313で解析された名詞として特定されるオブジェクトの種類に一致するときには、その2以上のオブジェクトのうち、画像フレーム内の位置が中央又はそれに最も近いオブジェクトが注目オブジェクトとして選択される。さらに画像フレーム内の位置が中央に最も近いオブジェクトが複数存在するときには、最も大きい領域を占めるオブジェクトが注目オブジェクトとして選択される。   The object information is supplied to the discriminator selection unit 315. The discriminator selection unit 315 selects one of the plurality of discriminators 323-1 to 323-n constituting the image analysis unit 323 that matches the type of object identified as the noun analyzed by the language analysis unit 313. A selection command for selection is output to the image analysis unit 323 (S7). In the classifier selection unit 315, a noun analyzed by the language analysis unit 313 is selected as a noun, for example, based on the position and size of the object information, and a plurality of, here, one object of interest is selected from three objects, A selection command for selecting a partial image corresponding to the object of interest is output to the image selection unit 319. When one of the objects extracted by the object extraction processing unit 307 matches the type of the object identified as the noun analyzed by the language analysis unit 313, the object is selected as the target object. When two or more of the objects extracted by the object extraction processing unit 307 match the type of object identified as a noun analyzed by the language analysis unit 313, The object at the center or the closest position is selected as the object of interest. Further, when there are a plurality of objects whose positions in the image frame are closest to the center, the object occupying the largest area is selected as the target object.

画像選択部319では、選択コマンドに従って注目オブジェクトに関する部分画像が選択される。選択された部分画像は前処理部321で前処理を受けた後、画像解析部323に供給される。前処理として典型的には、画像解析部323の画像解析結果の精度を安定化させるために解像度正規化処理、コントラスト正規化処理が例示されるが、勿論これら処理に限定されることは無い。   The image selection unit 319 selects a partial image related to the object of interest according to the selection command. The selected partial image is preprocessed by the preprocessing unit 321 and then supplied to the image analysis unit 323. Typically, as the preprocessing, resolution normalization processing and contrast normalization processing are exemplified in order to stabilize the accuracy of the image analysis result of the image analysis unit 323, but of course, the processing is not limited to these processing.

画像解析部323は、複数の識別器323−1乃至〜323−nで構成される。複数の識別器323−1乃至〜323−nは、典型的には畳み込みニューラルネットワークシステムにより構成される。畳み込みニューラルネットワークを作成する際の機械学習には、膨大な実際の教師画像を用意し学習を繰り返される。周知の通り、畳み込みニューラルネットワークは、2次元画像に対してフィルタによる畳み込みを行うことで、画像から特徴量を抽出する。畳み込みニューラルネットワークは、畳み込みとプーリングとを繰り返す多層ネットワークからなる。畳み込みニューラルネットワークにおいて畳み込み層を構成する識別に有効なフィルタの係数(重み)を、大量の学習用画像などの大量のデータを用いて学習させる。当該係数(重み)は、大量のデータを用いて、フィルタによる畳み込みと、一定領域の反応をまとめるプーリングとを繰り返すことで多様な変形に対する不変性を獲得する学習を行うことにより得られる。なお、畳み込みニューラルネットワークの識別性能は、畳み込み層を構成するフィルタに依存する。フィルタは、オブジェクトの種類ごとに用意される。   The image analysis unit 323 includes a plurality of discriminators 323-1 to 323-n. The plurality of discriminators 323-1 to 323-n are typically configured by a convolutional neural network system. For machine learning when creating a convolutional neural network, a large number of actual teacher images are prepared and learning is repeated. As is well known, the convolutional neural network extracts a feature amount from an image by performing convolution with a filter on a two-dimensional image. A convolutional neural network is composed of a multilayer network that repeats convolution and pooling. In a convolutional neural network, a filter coefficient (weight) effective for identification constituting a convolutional layer is learned using a large amount of data such as a large amount of learning images. The coefficient (weight) is obtained by performing learning to acquire invariance with respect to various deformations by repeating convolution by a filter and pooling that collects reactions in a certain region using a large amount of data. Note that the discrimination performance of the convolutional neural network depends on the filters constituting the convolutional layer. A filter is prepared for each type of object.

ここではオブジェクトの種類を図5に例示するように大分類の種類から中分類の種類、小分類の種類のごとく多階層化し、各階層の種類ごとに個々に識別器323−1乃至323−nが用意されていて、各識別器323−1乃至323−nはそれより下位分類上での種類を識別する。例えば識別器323−1が「動物」に関するものであれば、「犬」、「猫」など中分類の種類を識別し、識別器323−1が「猫」に関するものであれば、そりより下位分類の「ペルシャ」、「アメリカンショートヘア」など小分類の種類を識別する(S8)。   Here, as shown in FIG. 5, the object types are divided into multiple layers such as a large classification type, a middle classification type, and a small classification type, and classifiers 323-1 to 323-n are individually provided for each hierarchical type. Are prepared, and each of the discriminators 323-1 to 323-n identifies the type on the lower classification. For example, if the discriminator 323-1 is related to “animal”, the type of medium classification such as “dog” or “cat” is discriminated. If the discriminator 323-1 is related to “cat”, it is lower than the sled. A classification type such as “Persian” or “American short hair” is identified (S8).

仮に言語解析部313でコメントから「動物」が抽出されたとき、大分類の「動物」に関する識別器323−1が選択され、選択された識別器323−1は部分画像を解析して例えば「猫」を識別する。また言語解析部313でコメントから「猫」が抽出されたとき、中分類の「猫」に関する識別器323−2が選択され、選択された識別器323−2は部分画像を解析して例えば「アメリカンショートヘア」を識別する。   If “animal” is extracted from the comment by the language analysis unit 313, the classifier 323-1 related to the large category “animal” is selected, and the selected classifier 323-1 analyzes the partial image, for example, “ Identify "Cat". Further, when “cat” is extracted from the comment by the language analysis unit 313, the discriminator 323-2 regarding the “category” of the middle class is selected, and the selected discriminator 323-2 analyzes the partial image, for example, “ Identify "American Shorthair".

嗜好解析部325は、図6(a)、図6(b)に例示するように、多数の形容詞に対して嗜好極性(ポジティブ(プラス)/ネガティブ(マイナス))を判定するためのテーブルを世代ごと、さらに性別ごとに事前に作成して記憶しており、画像投稿者プロフィール内の年齢、性別に従って選択したテーブルに言語解析部313で抽出した形容詞を照会することにより、画像投稿者自身の主観的な嗜好極性を推定する(S9)。さらに嗜好解析部325は、図7に例示するように、多数の副詞に対して嗜好程度(レベル)を判定するためのテーブルを事前に作成して記憶しており、言語解析部313で抽出した副詞を照会することにより、画像投稿者自身の主観的な嗜好程度を推定する(S9)。これらテーブルには、形容詞だけではなく、絵文字やスタンプも掲載することが好ましい。テーブルは、随時追加、更新されるべきである。   The preference analysis unit 325 generates a table for determining preference polarity (positive (plus) / negative (minus)) for a large number of adjectives as illustrated in FIGS. 6 (a) and 6 (b). In addition, each gender is created and stored in advance, and the adjective extracted by the language analysis unit 313 is referred to a table selected according to age and gender in the image contributor's profile. A typical preference polarity is estimated (S9). Further, as illustrated in FIG. 7, the preference analysis unit 325 creates and stores in advance a table for determining the degree of preference (level) for a large number of adverbs, and the language analysis unit 313 extracts the table. By querying the adverb, the subjective preference degree of the image contributor is estimated (S9). These tables preferably include not only adjectives but also pictograms and stamps. The table should be added and updated from time to time.

画像解析部323で識別されたオブジェクトのより下位階層の種類、嗜好解析部325で解析された嗜好極性及び嗜好程度は、プロフィール統合処理部327において画像投稿者プロフィールに統合される(S10)。例えば画像を解析することにより識別されたオブジェクトの種類が「アメリカンショートヘア」であり、嗜好解析結果として嗜好極性が「ポジティブ」、嗜好程度がレベル3であれば、ユーザIDやユーザ氏名、年齢や性別等のユーザ情報に嗜好情報としての”アメリカンショートヘア/ポジティブ/レベル3”が関連付けられる。つまり当該ユーザ(画像投稿者)は「アメリカンショートヘアが非常に強く好きである」との嗜好傾向が認識され得る。   The lower hierarchy type of the object identified by the image analysis unit 323, the preference polarity and the preference level analyzed by the preference analysis unit 325 are integrated into the image poster profile by the profile integration processing unit 327 (S10). For example, if the type of the object identified by analyzing the image is “American short hair”, the preference polarity is “positive” as the preference analysis result, and the preference level is level 3, the user ID, the user name, the age, “American short hair / positive / level 3” as preference information is associated with user information such as sex. That is, the user (image contributor) can recognize a preference tendency that “I like American short hair very strongly”.

コンテンツデータに閲覧者コメントが存在する場合、言語解析部313は画像投稿者コメントと同様に閲覧者コメントをテキストマイニング処理にかけて、形容詞(絵文字等も含む)及び副詞を抽出し、それら形容詞及び副詞に基づいて嗜好解析部325で嗜好極性及び嗜好程度が推定される。これら閲覧者コメントをソースとする嗜好極性及び嗜好程度は画像投稿者に関する他社の客観的な嗜好極性及び嗜好程度としてユーザプロフィールに統合される。   When there is a viewer comment in the content data, the language analysis unit 313 performs a text mining process on the viewer comment in the same manner as the image contributor comment, extracts adjectives (including pictograms) and adverbs, and extracts these adjectives and adverbs. Based on this, the preference analysis unit 325 estimates the preference polarity and the degree of preference. The preference polarity and preference level based on these viewer comments are integrated into the user profile as the objective preference polarity and preference level of other companies related to the image poster.

なお、嗜好解析部325はテーブルを事前に準備してそれを照会することにより嗜好極性や嗜好程度を推定する方式であっても良いし、テーブルニューラルネットワークシステムにより構成されてもよい。   Note that the preference analysis unit 325 may be a method of estimating the preference polarity and the degree of preference by preparing a table in advance and inquiring it, or may be configured by a table neural network system.

本実施形態で特徴的なのは、画像投稿者やその閲覧者が投稿した画像から嗜好対象を特定し、その画像に付帯するコメントから嗜好極性や嗜好程度を判定し、それらを統合することにより嗜好情報を生成することにある。このように取得した嗜好情報は、購入履歴や閲覧履歴から嗜好情報を取得する手法に比べて、過度な主観や誤差振動の少ない、より自然で信頼性の高い情報として非常に有用である。   The feature of this embodiment is that the preference object is identified from the image posted by the image contributor and the viewer, the preference polarity and the degree of preference are determined from the comments attached to the image, and the preference information is integrated by integrating them. Is to generate. The preference information acquired in this way is very useful as more natural and reliable information with less excessive subjectivity and error vibration than a method of acquiring preference information from purchase history and browsing history.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

20…情報処理装置、301…通信装置、303…セパレータ、305…動画解析部、307…オブジェクト抽出処理部、313…言語解析部、315…識別器選択部、317…部分画像切出部、319…画像選択部、321…前処理部、323…画像解析部、325…嗜好解析部、327…プロフィール統合処理部。   DESCRIPTION OF SYMBOLS 20 ... Information processing apparatus 301 ... Communication apparatus 303 ... Separator 305 ... Movie analysis part 307 ... Object extraction process part 313 ... Language analysis part 315 ... Discriminator selection part 317 ... Partial image extraction part 319 ... an image selection unit, 321 ... a preprocessing unit, 323 ... an image analysis unit, 325 ... a preference analysis unit, 327 ... a profile integration processing unit.

Claims (13)

SNSサービス、ECサービス又は動画投稿閲覧サービスを提供するサーバに対して投稿者が投稿した画像及びそれに付帯する前記投稿者による投稿者コメントを含むコンテンツデータを前記サーバからダウンロードし、前記投稿者の嗜好傾向を解析する情報処理装置において、
前記コンテンツデータから前記画像と前記投稿者コメントを抽出する抽出手段と、
前記投稿者コメントを言語処理して名詞、形容詞、副詞を抽出する言語解析手段と、
前記抽出された形容詞又は副詞に基づいて前記投稿者の主観的な嗜好の極性及び程度を推定する嗜好推定手段と、
オブジェクトに関する種類を多階層に分類して各階層の種類から、より下位の種類を識別するために、複数の階層ごと及び複数の種類に対して個々に用意された複数の識別器と、
前記投稿者コメントから抽出された名詞に基づいて特定の識別器を前記複数の識別器から選択する手段と、
前記選択された識別器により識別された前記画像内のオブジェクトに関する、より下位の種類に、前記推定された主観的な嗜好の極性及び程度を関連付けることにより前記投稿者に関する嗜好情報を生成する嗜好情報生成手段とを具備する情報処理装置。
Content data including an image posted by a contributor to a server that provides an SNS service, an EC service, or a video posting browsing service and a contributor comment by the contributor attached thereto are downloaded from the server, and the contributor's preferences In an information processing device that analyzes trends,
Extracting means for extracting the image and the contributor comment from the content data;
Linguistic processing means for extracting the nouns, adjectives, adverbs by language-processing the contributor comments;
Preference estimation means for estimating the polarity and degree of subjective preference of the poster based on the extracted adjectives or adverbs;
In order to classify the types related to objects into multiple layers and identify lower-level types from the types of each layer, a plurality of classifiers individually prepared for each of a plurality of layers and a plurality of types,
Means for selecting a specific classifier from the plurality of classifiers based on nouns extracted from the contributor comments;
Preference information for generating preference information about the contributor by associating the estimated subjective preference polarity and degree with a lower type of the object in the image identified by the selected classifier An information processing apparatus comprising generation means.
前記コンテンツデータには閲覧者による閲覧者コメントが含まれ、
前記抽出手段は、前記コンテンツデータから前記閲覧者コメントを抽出し、
前記言語解析手段は、前記閲覧者コメントを言語処理して形容詞、副詞を抽出し、
前記嗜好推定手段は、前記閲覧者コメントから抽出された形容詞又は副詞に基づいて前記閲覧者から見た前記投稿者に関する客観的な嗜好の極性及び程度を推定し、
前記嗜好情報生成手段は、前記主観的な嗜好の極性及び程度と、前記客観的な嗜好の極性及び程度とから前記嗜好情報を生成する請求項1記載の情報処理装置。
The content data includes a viewer comment by a viewer,
The extraction means extracts the viewer comment from the content data,
The language analysis means performs language processing on the viewer comment to extract an adjective and an adverb,
The preference estimation means estimates the polarity and degree of objective preference regarding the poster viewed from the viewer based on an adjective or adverb extracted from the viewer comment,
The information processing apparatus according to claim 1, wherein the preference information generation unit generates the preference information from the polarity and degree of the subjective preference and the polarity and degree of the objective preference.
前記嗜好情報生成手段は、前記サーバからダウンロードした前記投稿者のプロフィールに前記嗜好情報を統合する請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the preference information generation unit integrates the preference information into the poster's profile downloaded from the server. 前記嗜好推定手段は、前記サーバからダウンロードした前記投稿者のプロフィール内の年齢及び性別を参照して前記投稿者の主観的な嗜好の極性及び程度を推定する請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the preference estimation unit estimates the polarity and degree of the subjective preference of the poster by referring to the age and sex in the poster profile downloaded from the server. 前記画像からそれに含まれるオブジェクトを含む部分画像を切り出す部分画像切出手段をさらに備え、
前記選択された識別器は前記部分画像を対象として前記画像内のオブジェクトの種類を識別する請求項1記載の情報処理装置。
A partial image cutout unit that cuts out a partial image including the object included in the image;
The information processing apparatus according to claim 1, wherein the selected classifier identifies a type of an object in the image for the partial image.
前記画像に複数のオブジェクトが含まれるとき、前記部分画像切出手段は複数の部分画像を切り出し、
前記複数の部分画像から、前記投稿者コメントから抽出された名詞又は前記オブジェクトの位置に従って前記特定の部分画像を選択する画像選択手段をさらに備える請求項5記載の情報処理装置。
When the image includes a plurality of objects, the partial image cutout means cuts out a plurality of partial images,
The information processing apparatus according to claim 5, further comprising an image selection unit that selects the specific partial image from the plurality of partial images according to a position of the noun or the object extracted from the contributor comment.
前記識別器は畳み込みニューラルネットワークにより構成される請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the discriminator is configured by a convolutional neural network. 前記嗜好推定手段はニューラルネットワークにより構成される請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the preference estimation unit is configured by a neural network. 前記画像は動画であり、前記動画を構成する複数の静止画から特定の静止画を閲覧者からのアクション数に基づいて選択する手段をさらに備え、
前記選択された識別器は前記選択された静止画に含まれるオブジェクトに関する、より下位の種類を識別する請求項1記載の情報処理装置。
The image is a moving image, further comprising means for selecting a specific still image based on the number of actions from the viewer from a plurality of still images constituting the moving image,
The information processing apparatus according to claim 1, wherein the selected discriminator identifies a lower type related to an object included in the selected still image.
前記コンテンツデータには音声データが含まれ、
前記音声データを音声認識処理によりテキストに変換する音声認識手段をさらに備え、
前記言語解析手段は、前記変換されたテキストを言語処理して名詞、形容詞、副詞を抽出する請求項1記載の情報処理装置。
The content data includes audio data,
Voice recognition means for converting the voice data into text by voice recognition processing;
The information processing apparatus according to claim 1, wherein the language analysis unit performs language processing on the converted text to extract nouns, adjectives, and adverbs.
SNSサービス、ECサービス又は動画投稿閲覧サービスを提供するサーバに対して投稿者が投稿した画像及びそれに付帯する前記投稿者による投稿者コメントを含むコンテンツデータを前記サーバからダウンロードし、前記投稿者の嗜好傾向を解析する情報処理装置において、
前記画像を解析して前記画像内のオブジェクトの種類を識別する手段と、
前記投稿者コメントに基づいて前記投稿者の前記識別したオブジェクトの種類に対する嗜好傾向を推定する手段とを具備する情報処理装置。
Content data including an image posted by a contributor to a server that provides an SNS service, an EC service, or a video posting browsing service and a contributor comment by the contributor attached thereto are downloaded from the server, and the contributor's preferences In an information processing device that analyzes trends,
Means for analyzing the image to identify the type of object in the image;
An information processing apparatus comprising: means for estimating a preference tendency for the identified object type of the poster based on the poster comment.
SNSサービス、ECサービス又は動画投稿閲覧サービスを提供するサーバに対して投稿者が投稿した画像及びそれに付帯する前記投稿者による投稿者コメントを含むコンテンツデータを前記サーバからダウンロードし、前記投稿者の嗜好傾向を解析する嗜好傾向解析方法において、
前記コンテンツデータから前記画像と前記投稿者コメントを抽出し、
前記投稿者コメントを言語処理して名詞、形容詞、副詞を抽出し、
前記抽出された形容詞又は副詞に基づいて前記投稿者の主観的な嗜好の極性及び程度を推定し、
オブジェクトに関する種類を多階層に分類して各階層の種類から、より下位の種類を識別するために、複数の階層ごと及び複数の種類に対して個々に用意された複数の識別器から、前記投稿者コメントから抽出された名詞に基づいて特定の識別器を選択し、
前記選択された識別器により識別された前記画像内のオブジェクトに関する、より下位の種類に、前記推定された主観的な嗜好の極性及び程度を関連付けることにより前記投稿者に関する嗜好情報を生成する嗜好傾向解析方法。
Content data including an image posted by a contributor to a server that provides an SNS service, an EC service, or a video posting browsing service and a contributor comment by the contributor attached thereto are downloaded from the server, and the contributor's preferences In a preference trend analysis method for analyzing trends,
Extracting the image and the contributor comment from the content data;
The poster comment is processed in language to extract nouns, adjectives, adverbs,
Estimating the subjective preference polarity and degree of the poster based on the extracted adjectives or adverbs,
In order to classify the types related to the object into multiple hierarchies and to identify lower types from the types of the respective hierarchies, the plurality of classifiers individually prepared for each of the plural hierarchies and the plural types, the post Select a specific classifier based on the noun extracted from the comment
A preference tendency to generate preference information about the contributor by associating the estimated subjective preference polarity and degree to a lower type of the object in the image identified by the selected classifier analysis method.
コンピュータを、
SNSサービス、ECサービス又は動画投稿閲覧サービスを提供するサーバに対して投稿者が投稿した画像及びそれに付帯する前記投稿者による投稿者コメントを含むコンテンツデータを前記サーバからダウンロードする手段と、
前記コンテンツデータから前記画像と前記投稿者コメントを抽出する手段と、
前記投稿者コメントを言語処理して名詞、形容詞、副詞を抽出する出力と、
前記抽出された形容詞又は副詞に基づいて前記投稿者の主観的な嗜好の極性及び程度を推定する手段と、
オブジェクトに関する種類を多階層に分類して各階層の種類から、より下位の種類を識別するために、複数の階層ごと及び複数の種類に対して個々に用意された複数の識別器から、前記投稿者コメントから抽出された名詞に基づいて特定の識別器を選択する手段と、
前記選択された識別器により識別された前記画像内のオブジェクトに関する、より下位の種類に、前記推定された主観的な嗜好の極性及び程度を関連付けることにより前記投稿者に関する嗜好情報を生成する手段として機能させるための嗜好傾向解析プログラム。
Computer
Means for downloading content data including an image posted by a contributor to a server that provides an SNS service, an EC service, or a video posting browsing service, and a contributor comment by the contributor attached thereto from the server;
Means for extracting the image and the contributor comment from the content data;
An output for extracting nouns, adjectives, adverbs by language-processing the contributor comments;
Means for estimating the polarity and degree of subjective preferences of the contributor based on the extracted adjectives or adverbs;
In order to classify the types related to the object into multiple hierarchies and to identify lower types from the types of the respective hierarchies, the plurality of classifiers individually prepared for each of the plural hierarchies and the plural types, the post Means for selecting a specific classifier based on nouns extracted from the person's comments;
As means for generating preference information about the contributor by associating the estimated subjective preference polarity and degree with a lower type of the object in the image identified by the selected classifier Preference trend analysis program to make it function.
JP2017148451A 2017-07-31 2017-07-31 Information processing apparatus, method, and program Active JP6569183B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017148451A JP6569183B2 (en) 2017-07-31 2017-07-31 Information processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017148451A JP6569183B2 (en) 2017-07-31 2017-07-31 Information processing apparatus, method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019133400A Division JP2020009453A (en) 2019-07-19 2019-07-19 Information processing device and program

Publications (2)

Publication Number Publication Date
JP2019028793A JP2019028793A (en) 2019-02-21
JP6569183B2 true JP6569183B2 (en) 2019-09-04

Family

ID=65478496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017148451A Active JP6569183B2 (en) 2017-07-31 2017-07-31 Information processing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP6569183B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7098579B2 (en) * 2019-06-28 2022-07-11 富士フイルム株式会社 Information processing equipment and methods and programs
JP2020009453A (en) * 2019-07-19 2020-01-16 Aiq株式会社 Information processing device and program
JP6945212B2 (en) * 2019-12-09 2021-10-06 Aiq株式会社 Information processing equipment and programs
JP7304587B2 (en) 2021-03-17 2023-07-07 Aiq株式会社 Information processing device and program
JP7274152B2 (en) 2021-09-21 2023-05-16 Aiq株式会社 Information processing device and program
JP7368899B1 (en) * 2023-02-24 2023-10-25 株式会社mov information processing system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5891909B2 (en) * 2012-03-30 2016-03-23 大日本印刷株式会社 Server apparatus, program, and communication system
US9554258B2 (en) * 2014-04-03 2017-01-24 Toyota Jidosha Kabushiki Kaisha System for dynamic content recommendation using social network data

Also Published As

Publication number Publication date
JP2019028793A (en) 2019-02-21

Similar Documents

Publication Publication Date Title
JP6569183B2 (en) Information processing apparatus, method, and program
Yousaf et al. Emotion recognition by textual tweets classification using voting classifier (LR-SGD)
US20160284007A1 (en) Information processing apparatus, information processing method, and recording medium
CN110325986B (en) Article processing method, article processing device, server and storage medium
CN105608477B (en) Method and system for matching portrait with job position
US9607010B1 (en) Techniques for shape-based search of content
EP2866421B1 (en) Method and apparatus for identifying a same user in multiple social networks
US9483740B1 (en) Automated data classification
JP2019531548A (en) Video capture framework for visual search platform
CN107807968B (en) Question answering device and method based on Bayesian network and storage medium
WO2017013667A1 (en) Method for product search using the user-weighted, attribute-based, sort-ordering and system thereof
Ortis et al. An Overview on Image Sentiment Analysis: Methods, Datasets and Current Challenges.
US20190370274A1 (en) Analysis Method Using Graph Theory, Analysis Program, and Analysis System
CN107797982A (en) For identifying the method, apparatus and equipment of text type
CN110222200A (en) Method and apparatus for entity fusion
WO2017202864A1 (en) System and method for imagery mnemonic creation
KR102410715B1 (en) Apparatus and method for analyzing sentiment of text data based on machine learning
US11574123B2 (en) Content analysis utilizing general knowledge base
CN113704623A (en) Data recommendation method, device, equipment and storage medium
CN104102727B (en) The recommendation method and device of query word
Levonevskii et al. Methods for determination of psychophysiological condition of user within smart environment based on complex analysis of heterogeneous data
JP5480008B2 (en) Summary manga image generation apparatus, program and method for generating manga content summary
CN112242198B (en) Method and system for recommending personalized treatment scheme of aphasia based on big data
CN110704581B (en) Text emotion analysis method and device executed by computer
JP2020502710A (en) Web page main image recognition method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190719

R150 Certificate of patent or registration of utility model

Ref document number: 6569183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250