JP2013033470A - Social network service providing device using sound and method therefor - Google Patents

Social network service providing device using sound and method therefor Download PDF

Info

Publication number
JP2013033470A
JP2013033470A JP2012160771A JP2012160771A JP2013033470A JP 2013033470 A JP2013033470 A JP 2013033470A JP 2012160771 A JP2012160771 A JP 2012160771A JP 2012160771 A JP2012160771 A JP 2012160771A JP 2013033470 A JP2013033470 A JP 2013033470A
Authority
JP
Japan
Prior art keywords
sound
social network
network service
service providing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012160771A
Other languages
Japanese (ja)
Other versions
JP5951382B2 (en
Inventor
Gun Han Park
根 韓 朴
Jang-Yeon Park
章 然 朴
Eikan Kin
榮 ▲寛▼ 金
Dong Wook Kim
東 旭 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NHN Corp
Original Assignee
NHN Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NHN Corp filed Critical NHN Corp
Publication of JP2013033470A publication Critical patent/JP2013033470A/en
Application granted granted Critical
Publication of JP5951382B2 publication Critical patent/JP5951382B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Abstract

PROBLEM TO BE SOLVED: To provide a social network service providing device using a sound and a method therefor.SOLUTION: A social network service providing device includes a sound reception unit for receiving sounds from user terminals, a feature value extraction unit for extracting feature values from the received sounds, and a group information generation unit for generating group information by grouping users having transmitted sounds in which the extracted feature values match.

Description

本発明は、ユーザが入力するサウンドを用いて前記ユーザにソーシャルネットワークサービス(SNS:Social Network Service)を提供する、サウンドを利用したソーシャルネットワークサービス提供装置及びその方法に関する。   The present invention relates to an apparatus and method for providing a social network service using sound, which provides a social network service (SNS: Social Network Service) to the user using sound input by the user.

現在、ネットワークを介して、ソーシャルネットワークサービス提供者からツイッター(twitter)、フェイスブック(facebook)、ミートゥデイ(me2day)等のような多様なソーシャルネットワークサービスが、提供される。   Currently, various social network services such as Twitter, Facebook, and Me2day are provided from social network service providers via the network.

ソーシャルネットワークサービスは、インターネット上で、友人、先後輩、同僚などの知人との人脈関係を強化して新しい人脈を築いて幅広い人的ネットワークを形成できるようにするサービスである。このようなソーシャルネットワークサービスを提供する方法として、大韓民国公開特許第10−2011−0016349「ソーシャルネットワークサービスの提供方法及び装置」がある。   The social network service is a service that enables a wide range of human networks to be formed by strengthening the personal relationships with friends, seniors, colleagues, and other acquaintances on the Internet. As a method for providing such a social network service, there is a Korean published patent No. 10-2011-0016349 “Method and apparatus for providing a social network service”.

しかし、今日、個人の表現の欲求が高まるにつれて、このようなソーシャルネットワークサービスの提供方法では、他の人達とより多彩な情報の共有を求めているユーザを満足させることは、困難である。   However, as the desire for personal expression increases today, it is difficult to satisfy users who are seeking to share more diverse information with other people using such a method for providing social network services.

例えば、特定の映画を鑑賞したユーザが映画に対する感想を共有しようとする場合などが挙げられる。この場合、従来のソーシャルネットワークサービスの利用者は、映画に対する自分の感想を、仮想掲示板等を介して他の人と共有したり、映画について対話が行われているチャットルームなどに入場して、他の人々と感想を共有してきた。しかし、仮想掲示板を介して他の人と感想を共有する場合、一般的に、仮想掲示板を見る人は映画に特別な関心を持っていない場合が多いため、ユーザは、自分が掲示した感想に対する他の人の反応から満足感を十分に得られなかった。   For example, there may be a case where a user who has watched a specific movie wants to share impressions about the movie. In this case, a user of a conventional social network service enters his / her impression of the movie with another person via a virtual bulletin board or the like, or enters a chat room where a dialogue is made about the movie. I have shared my thoughts with other people. However, when sharing impressions with other people via a virtual bulletin board, users who view the virtual bulletin board generally do not have a special interest in movies, so users can I couldn't get enough satisfaction from other people's reactions.

一方、ユーザが映画に対するチャットルームに入場して感想を他の人と共有しようとする場合、当該ユーザは、まず映画に対するチャットルームを検索しなければならないという不便を受忍しなければならないだけでなく、チャットルームを検索するために適したキーワードを選ぶという困難を受忍しなければならなかった。一例として、従来のソーシャルネットワークサービスでは、ユーザが特定の時間または特定の場所で公演された演劇に対する感想を他の人と共有しようとしている場合に、当該ユーザに対して当該特定の時間または特定の場所で公演された演劇を見たユーザを推薦することが難しかった。   On the other hand, when a user enters a chat room for a movie and wants to share his thoughts with other people, the user must first accept the inconvenience of having to search for a chat room for the movie. I had to endure the difficulty of choosing the right keywords to search for chat rooms. As an example, in a conventional social network service, when a user wants to share an impression of a play performed at a specific time or in a specific place with other people, the specific time or specific It was difficult to recommend users who watched the plays performed at the venue.

したがって、ユーザに対してより満足感を提供することができ、ユーザがより容易にソーシャルネットワークサービスを利用できる方法が求められている。   Therefore, there is a need for a method that can provide more satisfaction to the user and that allows the user to more easily use the social network service.

本発明の課題は、サウンドを用いてソーシャルネットワークサービスを提供することによって、ユーザがより容易に他のユーザと情報を共有できるソーシャルネットワークサービス提供装置及びその方法を提供することである。   An object of the present invention is to provide a social network service providing apparatus and a method for providing a social network service using sound so that the user can more easily share information with other users.

また、本発明の課題は、ユーザが特定のイベントを他のユーザと共有できるだけでなく、ユーザが特定の時間に同じサウンドを聞いている他のユーザまたは特定の場所にいる他のユーザと情報を共有できるソーシャルネットワークサービス提供装置及びその方法を提供することである。   It is also an object of the present invention not only to allow users to share specific events with other users, but also to share information with other users who are listening to the same sound at specific times or with other users at specific locations. It is to provide a social network service providing apparatus and method that can be shared.

本発明の一態様によるソーシャルネットワークサービス提供装置は、ユーザ端末からサウンドを受信するサウンド受信部と、前記受信されるサウンドから特徴値を抽出する特徴値抽出部と、前記抽出された特徴値にマッチする特徴値を有するサウンドを送信するユーザ同士をグループ化してグループ情報を生成するグループ情報生成部とを、備える。   A social network service providing apparatus according to an aspect of the present invention includes a sound receiving unit that receives sound from a user terminal, a feature value extracting unit that extracts a feature value from the received sound, and a match with the extracted feature value A group information generating unit that generates group information by grouping users who transmit sounds having characteristic values.

また、前記特徴値抽出部によって抽出された特徴値をデータベースに格納されたサウンドの特徴値と比較してマッチする特徴値を有するサウンドのメタ情報を検索するメタ情報検索部をさらに備え、前記グループ情報生成部は、前記検索されたメタ情報にマッチングされるメタ情報を有するサウンドを送信するユーザ同士をグループ化して前記グループ情報を生成してもよい。   The group further includes a meta information search unit that searches for meta information of a sound having a matching feature value by comparing the feature value extracted by the feature value extracting unit with a feature value of a sound stored in a database, The information generation unit may generate the group information by grouping users who transmit sounds having meta information matched with the searched meta information.

また、前記抽出された特徴値にマッチングされる前記メタ情報が検索されない場合、前記ユーザ端末から前記受信されたサウンドに対するメタ情報を登録するメタ情報登録部をさらに備えてもよい。   In addition, when the meta information matched with the extracted feature value is not searched, a meta information registration unit that registers meta information for the sound received from the user terminal may be further included.

また、前記グループ情報生成部は、前記サウンドが入力される時間に基づいて、各サウンドを送信したユーザ同士をグループ化して、前記グループ情報を生成したり、前記ユーザ端末の位置情報に基づいて 各サウンドを送信したユーザ同士をグループ化して、前記グループ情報を生成してもよい。   Further, the group information generation unit groups the users who transmitted each sound based on the time when the sound is input, and generates the group information, or based on the location information of the user terminal. The group information may be generated by grouping users who have transmitted sound.

また、本発明の他の態様によるソーシャルネットワークサービス提供装置は、サウンドが入力されるサウンド入力部と、前記入力されるサウンドをソーシャルネットワークサービス提供サーバに送信するサウンド送信部と、前記送信されたサウンドから抽出された特徴値にマッチする特徴値を有するサウンドを前記ソーシャルネットワークサービス提供サーバに送信したユーザ同士をグループ化することによって生成されたグループ情報を前記ソーシャルネットワークサービス提供サーバから受信して表示するグループ情報表示部とを備えてもよい。   The social network service providing apparatus according to another aspect of the present invention includes a sound input unit to which sound is input, a sound transmission unit that transmits the input sound to a social network service providing server, and the transmitted sound. Group information generated by grouping users who have transmitted to the social network service providing server a sound having a feature value that matches the feature value extracted from the social network service providing server is received and displayed. And a group information display unit.

また、本発明の他の態様によるソーシャルネットワークサービスを提供する方法は、ユーザ端末からサウンドを受信するステップと、前記受信されるサウンドから特徴値を抽出するステップと、前記抽出された特徴値にマッチする特徴値を有するサウンドを送信するユーザをグループ化してグループ情報を生成するステップと、前記生成されたグループ情報を前記ユーザ端末に送信するステップとを含んでもよい。   The method for providing a social network service according to another aspect of the present invention includes a step of receiving sound from a user terminal, a step of extracting a feature value from the received sound, and a match with the extracted feature value. Grouping users who transmit sounds having characteristic values to generate group information, and transmitting the generated group information to the user terminal.

本発明によれば、ユーザ端末から入力されるサウンドから特徴値を抽出して、前記抽出された特徴値にマッチングされるサウンドを送信するユーザをグループ化することによって、ユーザが、より容易に他のユーザと情報を共有することができる。   According to the present invention, a feature value is extracted from sound input from a user terminal, and the users who transmit the sound matched with the extracted feature value are grouped, so that the user can more easily perform other operations. You can share information with other users.

また、サウンドが入力される時間または場所に基づいてユーザをグループ化することによって、ユーザ間で特定イベントを共有できるだけでなく、特定の時間に同じサウンドを聞いているユーザ間または特定の場所にいるユーザ間で情報を共有することができる。   Also, by grouping users based on the time or place where the sound is input, not only can you share specific events among users, but you can also be among users or at specific locations listening to the same sound at specific times Information can be shared between users.

本発明の一実施形態において、サウンドを利用したソーシャルネットワークサービス提供システムを示す概念図である。1 is a conceptual diagram illustrating a social network service providing system using sound in an embodiment of the present invention. 本発明の一実施形態において、サウンドを利用したソーシャルネットワークサービス提供装置を説明するためのブロック図である。FIG. 4 is a block diagram for explaining a social network service providing apparatus using sound in an embodiment of the present invention. 本発明の一実施形態において、サウンドを用いてユーザにソーシャルネットワークサービスを提供する一例を示す例示図である。FIG. 4 is an exemplary diagram illustrating an example of providing a social network service to a user using sound in an embodiment of the present invention. 本発明の一実施形態において、サウンドを用いてユーザにソーシャルネットワークサービスを提供する一例を示す例示図である。FIG. 4 is an exemplary diagram illustrating an example of providing a social network service to a user using sound in an embodiment of the present invention. 本発明の一実施形態において、ソーシャルネットワークサービスを提供する方法を示すフローチャートである。4 is a flowchart illustrating a method for providing a social network service in an embodiment of the present invention. 本発明の他の実施形態において、ソーシャルネットワークサービスを提供する方法を示すフローチャートである。4 is a flowchart illustrating a method for providing a social network service in another embodiment of the present invention.

以下、本発明の実施形態を添付する図面を参照しながら詳細に説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明の一実施形態による、サウンドを利用したソーシャルネットワークサービス提供システムを示す概念図である。図1を参照すれば、ソーシャルネットワークサービス提供システムは、複数のユーザ端末110,120、ソーシャルネットワークサービス提供サーバ130、及びデータベース140を、備えている。   FIG. 1 is a conceptual diagram illustrating a social network service providing system using sound according to an embodiment of the present invention. Referring to FIG. 1, the social network service providing system includes a plurality of user terminals 110 and 120, a social network service providing server 130, and a database 140.

それぞれのユーザ端末110,120は、ネットワークを介して、ユーザが入力するサウンドを、ソーシャルネットワークサービス提供サーバ130へ送信する。ユーザ端末110,120は、ユーザがソーシャルネットワークサービス提供サーバからソーシャルネットワークサービスなどのような多様なサービスの提供を受ける装置であり、スマートフォンなどの携帯端末やデスクトップコンピュータなどのように、ネットワークの機能を備えて、サウンドを入力できる装置として実現されてもよい。   Each of the user terminals 110 and 120 transmits the sound input by the user to the social network service providing server 130 via the network. The user terminals 110 and 120 are devices in which a user receives various services such as a social network service from a social network service providing server. The user terminals 110 and 120 have network functions such as a mobile terminal such as a smartphone or a desktop computer. It may be realized as a device capable of inputting sound.

ソーシャルネットワークサービス提供サーバ130は、ユーザが送信したサウンドに基づいて、当該ユーザと、当該サウンドにマッチングされるサウンドを送信した他のユーザをグループ化して、グループ情報を生成し、このグループ情報を、再びネットワークを介してユーザ端末110,120へ送信する。   Based on the sound transmitted by the user, the social network service providing server 130 groups the user and other users who transmitted the sound matched with the sound to generate group information. The data is transmitted again to the user terminals 110 and 120 via the network.

ここで、一実施形態として、ソーシャルネットワークサービス提供サーバ130は、各ユーザ端末から送信されるそれぞれのサウンドから特徴値を抽出して、これを比較して、相互にマッチングされるサウンドを入力した複数のユーザ同士を一つのグループにグループ化することによって、グループ情報を生成してもよい。   Here, as one embodiment, the social network service providing server 130 extracts a feature value from each sound transmitted from each user terminal, compares the extracted feature values, and inputs a plurality of sounds that are matched with each other. Group information may be generated by grouping these users into one group.

一方、他の実施形態として、ソーシャルネットワークサービス提供サーバ130は、各ユーザ端末から送信されるそれぞれのサウンドから特徴値を抽出して、これをデータベース140に格納されたサウンドの特徴値と比較して、前者にマッチする特徴値を有するサウンドのメタ情報を検索し、検索されたメタ情報に基づいて、グループ情報を生成してもよい。   On the other hand, as another embodiment, the social network service providing server 130 extracts a feature value from each sound transmitted from each user terminal, and compares it with the feature value of the sound stored in the database 140. The meta information of the sound having the feature value matching the former may be searched, and the group information may be generated based on the searched meta information.

図2は、本発明の一実施形態において、サウンドを利用したソーシャルネットワークサービス提供装置を説明するためのブロック図である。以下、図2を参照して本発明に係るソーシャルネットワークサービス提供装置をより詳細に説明する。   FIG. 2 is a block diagram for explaining a social network service providing apparatus using sound in an embodiment of the present invention. Hereinafter, the social network service providing apparatus according to the present invention will be described in more detail with reference to FIG.

ユーザ端末110は、サウンド入力部210、サウンド送信部220、及びグループ情報表示部230を、備えてもよい。   The user terminal 110 may include a sound input unit 210, a sound transmission unit 220, and a group information display unit 230.

サウンド入力部210には、ユーザがソーシャルネットワークサービス提供サーバ130に送信しようとするサウンドが、入力される。これのために、サウンド入力部210は、マイクなどのようなサウンド入力装置によって実現され、ユーザ端末110の一側面に備えられてもよい。   The sound that the user wants to transmit to the social network service providing server 130 is input to the sound input unit 210. For this, the sound input unit 210 may be realized by a sound input device such as a microphone and may be provided on one side of the user terminal 110.

サウンド送信部220は、サウンド入力部210を介して入力されるサウンドを、無線通信網、移動通信網などのネットワークを介して、ソーシャルネットワークサービス提供サーバ130へ送信する。   The sound transmission unit 220 transmits the sound input via the sound input unit 210 to the social network service providing server 130 via a network such as a wireless communication network or a mobile communication network.

グループ情報表示部230は、ソーシャルネットワークサービス提供サーバ130から、ネットワークを介してグループ情報を受信して、これを表示する。ソーシャルネットワークサービス提供サーバ130は、ユーザ端末110から送信されるサウンドから特徴値を抽出し、当該特徴値にマッチする特徴値を有するサウンドを当該ソーシャルネットワークサービス提供サーバ130へ送信したユーザを前記ユーザ端末110を操作しているユーザとグループ化することによって、グループ情報を生成してもよい。また、データベース140に格納された複数のサウンドのうち、当該特徴値にマッチする特徴値を有するサウンドのメタ情報を検索し、検索されたメタ情報に該当するサウンドを送信した他のユーザを前記ユーザ端末110を操作しているユーザとグループ化することによって、グループ情報を生成してもよい。   The group information display unit 230 receives group information from the social network service providing server 130 via the network and displays it. The social network service providing server 130 extracts a feature value from the sound transmitted from the user terminal 110, and designates the user who has transmitted the sound having the feature value matching the feature value to the social network service providing server 130 as the user terminal. Group information may be generated by grouping with the user who is operating 110. Further, among the plurality of sounds stored in the database 140, the meta information of the sound having the characteristic value matching the characteristic value is searched, and another user who has transmitted the sound corresponding to the searched meta information is set as the user. Group information may be generated by grouping with a user operating the terminal 110.

グループ情報表示部230は、一例として、ユーザ端末110にアプリケーションの形態でインストールされ、ソーシャルネットワークサービス提供サーバ130から受信したグループ情報を所定の形態で表示することによって、ユーザにソーシャルネットワークサービスを提供してもよい。   For example, the group information display unit 230 is installed in the user terminal 110 in the form of an application, and provides the user with a social network service by displaying the group information received from the social network service providing server 130 in a predetermined form. May be.

一方、本発明の一実施形態に係るソーシャルネットワークサービス提供サーバ130は、サウンド受信部240、特徴値抽出部250、及びグループ情報生成部260を、備えてもよい。   Meanwhile, the social network service providing server 130 according to an embodiment of the present invention may include a sound receiving unit 240, a feature value extracting unit 250, and a group information generating unit 260.

サウンド受信部240は、ユーザ端末110からネットワークを介して送信されたサウンドを、受信する。   The sound receiving unit 240 receives the sound transmitted from the user terminal 110 via the network.

特徴値抽出部250は、サウンド受信部240で受信されるサウンドから、特徴値(fingerprint)を抽出する。   The feature value extraction unit 250 extracts a feature value (fingerprint) from the sound received by the sound reception unit 240.

グループ情報生成部260は、特徴値抽出部250で抽出された特徴値にマッチする特徴値を有するサウンドを送信した他のユーザを前記ユーザ端末110を操作しているユーザとグループ化して、グループ情報を生成する。ここで、グループ情報生成部260は、サウンドが入力される時間に基づいてユーザをグループ化してグループ情報を生成してもよく、ユーザ端末110の位置情報に基づいてユーザをグループ化してグループ情報を生成してもよい。   The group information generation unit 260 groups other users who have transmitted a sound having a feature value that matches the feature value extracted by the feature value extraction unit 250 with a user who is operating the user terminal 110 to obtain group information. Is generated. Here, the group information generation unit 260 may generate group information by grouping users based on the time when sound is input, and group the users based on location information of the user terminal 110 to obtain group information. It may be generated.

例えば、グループ情報生成部260が、サウンドが入力される時間に基づいてグループ情報を生成する場合、グループ情報生成部260は、所定の時間の間にサウンド受信部240で受信される各サウンドから抽出された特徴値同士を比較して、相互にマッチした特徴値を含むサウンドを送信したユーザ同士をグループ化して、グループ情報を生成してもよい。この場合、ソーシャルネットワークサービス提供サーバ130は、特定の時間内にサウンドを送信するユーザをグループ化できるため、ユーザが特定の時間に公演中の特定の演劇を鑑賞している間に、当該演劇を鑑賞している他のユーザと当該演劇に対する感想を共有しようとする場合にも、当該演劇のサウンドを入力することによって、容易に、他のユーザと、当該演劇に対する感想を共有することができる。   For example, when the group information generation unit 260 generates group information based on the time when a sound is input, the group information generation unit 260 extracts from each sound received by the sound reception unit 240 during a predetermined time. The grouped information may be generated by comparing the feature values obtained and grouping users who have transmitted sounds including feature values that match each other. In this case, the social network service providing server 130 can group the users who transmit the sound within a specific time, so that the user can play the play while watching the specific play being performed at the specific time. Even if it is intended to share an impression of the theater with another user who is watching, it is possible to easily share the impression of the theater with the other user by inputting the sound of the theater.

また、グループ情報生成部260がユーザ端末110の位置情報に基づいてグループ情報を生成する場合、ソーシャルネットワークサービス提供サーバ130は、サウンド受信部240によってサウンドが受信されるときに、該当ユーザ端末110の位置情報をGPS(Global Positioning System)等を用いて検出し、位置情報と特徴値が一致するサウンドを送信したユーザをグループ化して、グループ情報を生成してもよい。この場合、ソーシャルネットワークサービス提供サーバ130は、特定位置でサウンドを送信するユーザをグループ化できるため、ユーザが特定映画の鑑賞中に当該映画に対する感想を他のユーザと共有しようとする場合にも、同じ映画館で当該映画を鑑賞する他のユーザと感想を共有することができる。   In addition, when the group information generation unit 260 generates group information based on the location information of the user terminal 110, the social network service providing server 130 is connected to the user terminal 110 when the sound is received by the sound reception unit 240. The position information may be detected using GPS (Global Positioning System) or the like, and users who have transmitted sounds whose feature values match the position information may be grouped to generate group information. In this case, since the social network service providing server 130 can group users who transmit sound at a specific position, even when the user wants to share an impression of the movie with another user while watching the specific movie, You can share your thoughts with other users who watch the movie at the same movie theater.

一方、他の実施形態として、ソーシャルネットワークサービス提供サーバ130は、サウンド受信部240、特徴値抽出部250、及びグループ情報生成部260の他に、メタ情報検索部270、及びメタ情報登録部280を、さらに備えてもよい。   On the other hand, as another embodiment, the social network service providing server 130 includes a meta information search unit 270 and a meta information registration unit 280 in addition to the sound reception unit 240, the feature value extraction unit 250, and the group information generation unit 260. , May be further provided.

この場合、メタ情報検索部270は、特徴値抽出部250で抽出された特徴値をデータベース140に格納されたサウンドの特徴値と比較してマッチングされるメタ情報を検索する。ここで、メタ情報は、サウンドに関する情報を含む情報であり、例えば、サウンドが映画に対するサウンドである場合、映画の題名、映画を上映する劇場に関する情報などをも含んでもよい。   In this case, the meta information search unit 270 searches the meta information to be matched by comparing the feature value extracted by the feature value extraction unit 250 with the feature value of the sound stored in the database 140. Here, the meta information is information including information about the sound. For example, when the sound is a sound for a movie, the meta information may include a title of the movie, information about a theater showing the movie, and the like.

メタ情報検索部270において、抽出された特徴値にマッチングされるメタ情報が検索されない場合、メタ情報登録部280は、ユーザ端末110にサウンドに対するメタ情報登録要請を送信し、受信されるサウンドに対するメタ情報の登録を受けて、データベース140に格納してもよい。したがって、データベース140に登録されていなかったサウンドをユーザが入力しても、当該サウンドに対するメタ情報を登録することによって、他のユーザが当該サウンドのメタ情報にマッチングされるメタ情報を有するサウンドを送信する際に、ユーザが他のユーザと情報を共有できるようにしてもよい。   When the meta information search unit 270 does not search for meta information that matches the extracted feature value, the meta information registration unit 280 transmits a meta information registration request for the sound to the user terminal 110 and receives the meta information for the received sound. The information may be registered and stored in the database 140. Therefore, even if a user inputs a sound that has not been registered in the database 140, by registering meta information for the sound, another user transmits a sound having meta information that matches the meta information of the sound. In doing so, the user may be able to share information with other users.

グループ情報生成部260は、メタ情報検索部270で検索されたメタ情報にマッチングされるメタ情報を有するサウンドを送信したユーザを前記ユーザ端末110を操作しているユーザとグループ化して、グループ情報を生成する。ここでも、グループ情報生成部260は、サウンドが入力される時間に基づいてユーザをグループ化してグループ情報を生成したり、ユーザ端末の位置情報に基づいてユーザをグループ化してグループ情報を生成することによって、特定の時間に同じサウンドを聞いているユーザまたは特定の場所にいるユーザ同士で情報を共有できるようにしてもよい。   The group information generation unit 260 groups the user who has transmitted the sound having the meta information matched with the meta information searched by the meta information search unit 270 with the user who operates the user terminal 110, and displays the group information. Generate. Here, the group information generation unit 260 generates group information by grouping users based on the time when the sound is input, or generates group information by grouping users based on the location information of the user terminal. Thus, information may be shared between users who are listening to the same sound at a specific time or between users at a specific location.

例えば、第1ユーザが特定映画の上映時間のうち10分から12分に該当するサウンドをソーシャルネットワークサービス提供サーバ130に送信して、第2ユーザが映画の11分から13分に該当するサウンドをソーシャルネットワークサービス提供サーバ130に送信する場合、ソーシャルネットワークサービス提供サーバ130は、映画の11分から12分に該当するサウンドの特徴値を用いて第1ユーザと第2ユーザをグループ化できる。しかしながら、第1ユーザが特定映画の上映時間のうち10分から11分に該当するサウンドをソーシャルネットワークサービス提供サーバ130に送信して、第2ユーザが映画の12分から13分に該当するサウンドをソーシャルネットワークサービス提供サーバ130に送信する場合、第1ユーザが送信したサウンドから抽出される特徴値と第2ユーザが送信したサウンドから抽出される特徴値とがマッチしない可能性がある。この場合、メタ情報検索部270は、データベース140に格納されたサウンドと第1ユーザが送信したサウンドの特徴値とを比較してマッチングされるメタ情報を検索することによって、第1ユーザが送信したサウンドがどんな映画のサウンドに該当するかを検出してもよい。したがって、グループ情報生成部270は、ユーザが送信したサウンドの特徴値と他のユーザが送信したサウンドの特徴値とが相互にマッチングされなくても、当該ユーザを、当該ユーザが送信したサウンドのメタ情報とマッチングされるメタ情報を有するサウンドを送信した他のユーザとグループ化して、グループ情報を生成することができる。   For example, the first user transmits a sound corresponding to 10 to 12 minutes of the screening time of a specific movie to the social network service providing server 130, and the second user transmits a sound corresponding to 11 to 13 minutes of the movie on the social network. When transmitting to the service providing server 130, the social network service providing server 130 can group the first user and the second user using the characteristic values of the sound corresponding to 11 to 12 minutes of the movie. However, the first user transmits a sound corresponding to 10 to 11 minutes of the screening time of the specific movie to the social network service providing server 130, and the second user transmits a sound corresponding to 12 to 13 minutes of the movie on the social network. When transmitting to the service providing server 130, the feature value extracted from the sound transmitted by the first user may not match the feature value extracted from the sound transmitted by the second user. In this case, the meta information search unit 270 compares the sound stored in the database 140 with the feature value of the sound transmitted by the first user and searches for meta information to be matched, thereby transmitting the first user. You may detect what kind of movie sound the sound falls into. Therefore, the group information generation unit 270 may identify the user as a meta of the sound transmitted by the user even if the characteristic value of the sound transmitted by the user and the characteristic value of the sound transmitted by another user are not matched with each other. Group information can be generated by grouping with other users who have transmitted a sound having meta information matched with the information.

図3及び図4は、本発明の一実施形態において、サウンドを用いてユーザにソーシャルネットワークサービスを提供する一例を示す例示図である。   3 and 4 are exemplary views illustrating an example of providing a social network service to a user using sound in an embodiment of the present invention.

ユーザがOXコンサートに行って現在OXコンサートに来た人々と感想を共有しようとする場合、ユーザは、図3に示すように、ユーザ端末110を用いてソーシャルネットワークサービス提供サーバ130にサウンドを送信してもよい。この場合、ソーシャルネットワークサービス提供サーバ130は、ユーザ端末110からサウンドを受信して、当該サウンドから特徴値を抽出する。そして、抽出された特徴値にその特徴量がマッチングされるサウンドを送信した他のユーザを、前記ユーザ端末110を操作しているユーザとグループ化して、グループ情報を生成する。ここで、ソーシャルネットワークサービス提供サーバ130は、サウンドが入力される時間やユーザ端末の位置情報などに基づいてユーザをグループ化して、グループ情報を生成することによって、図4に示すように、或るユーザが当該グループ情報を用いて現在OXコンサートに来た他の人々と感想を共有できるようにしてもよい。一方、ソーシャルネットワークサービス提供サーバ130は、サウンドから抽出された特徴値をデータベースに格納されたサウンドの特徴値と比較してマッチングされるメタ情報を検索し、メタ情報にマッチングされるメタ情報が検索されるユーザをグループ化することによってグループ情報を生成してもよい。この場合、ソーシャルネットワークサービス提供サーバ130は、メタ情報に基づいてユーザをグループ化するため、現在OXコンサートにあるユーザとだけではなく、OXコンサートを開く歌手のファン達や、OXコンサートの入場券を購入しようとする人々とも、対話をしたり情報を共有できるようにしてもよい。したがって、ユーザは、より容易に、自分と共通する関心分野を有する人々と情報を共有することができ、より緊密な共感を形成することができる。   When a user goes to an OX concert and wants to share his / her impressions with people who have come to the OX concert, the user transmits a sound to the social network service providing server 130 using the user terminal 110 as shown in FIG. May be. In this case, the social network service providing server 130 receives a sound from the user terminal 110 and extracts a feature value from the sound. Then, other users who have transmitted a sound whose feature value is matched with the extracted feature value are grouped with a user who is operating the user terminal 110 to generate group information. Here, the social network service providing server 130 generates a group information by grouping users based on the time when sound is input, the location information of the user terminal, and the like, as shown in FIG. The user may be able to share impressions with other people who have currently attended the OX concert using the group information. On the other hand, the social network service providing server 130 compares the feature value extracted from the sound with the feature value of the sound stored in the database to search for matched meta information, and searches for meta information matched with the meta information. Group information may be generated by grouping users to be grouped. In this case, since the social network service providing server 130 groups users based on the meta information, not only the users currently in the OX concert but also singer fans who open the OX concert and admission tickets for the OX concert. You may be able to interact and share information with the people you are buying. Therefore, the user can more easily share information with people who have a common field of interest with him and can form a closer empathy.

図5は、本発明の一実施形態において、ソーシャルネットワークサービスを提供する方法を示すフローチャートである。   FIG. 5 is a flowchart illustrating a method for providing a social network service in an embodiment of the present invention.

本発明の一実施形態に係るソーシャルネットワークサービス提供サーバ130は、複数のユーザ端末110からネットワークを介してサウンドを受信し(S510)、サウンドから特徴値を抽出する(S520)。そして、抽出された特徴値同士がマッチングされるサウンドを送信したユーザ同士をグループ化して、グループ情報を生成し(S530)、このグループ情報をユーザ端末に送信する。ここで、グループ情報は、サウンドが入力される時間、及び/またはユーザ端末の位置情報に基づいて、生成されてもよい。したがって、本発明に係るソーシャルネットワークサービス提供装置は、特定の時間及び/または特定の場所でサウンドを送信するユーザ同士をグループ化できるため、ユーザがサウンドを用いて、より容易に他のユーザと情報を共有できる一方、特定の時間に同じサウンドを聞いている他のユーザまたは特定の場所にいる他のユーザと、情報を共有することができる。   The social network service providing server 130 according to an embodiment of the present invention receives sound from a plurality of user terminals 110 via a network (S510), and extracts feature values from the sound (S520). Then, the users who have transmitted sounds that match the extracted feature values are grouped together to generate group information (S530), and this group information is transmitted to the user terminal. Here, the group information may be generated based on the time when the sound is input and / or the location information of the user terminal. Accordingly, the social network service providing apparatus according to the present invention can group users who transmit sound at a specific time and / or a specific place, so that the user can more easily communicate with other users using the sound. While sharing information with other users who are listening to the same sound at a particular time or at other locations.

図6は、本発明の他の実施形態において、ソーシャルネットワークサービスを提供する方法を示すフローチャートである。   FIG. 6 is a flowchart illustrating a method for providing a social network service in another embodiment of the present invention.

本発明の他の実施形態に係るソーシャルネットワークサービス提供サーバ130は、複数のユーザ端末からネットワークを介してサウンドを受信し(S610)、サウンドから特徴値を抽出する(S620)。そして、抽出された特徴値を予め格納されたサウンドの特徴値と比較してマッチングされるメタ情報を検索する(S630)。   The social network service providing server 130 according to another embodiment of the present invention receives sound from a plurality of user terminals via a network (S610), and extracts feature values from the sound (S620). Then, the extracted feature value is compared with the feature value of the sound stored in advance to search for meta information to be matched (S630).

ここで、ソーシャルネットワークサービス提供サーバ130は、抽出された特徴値にマッチングされるメタ情報が検索されるかを判断し(S640)、検索されない場合、ユーザ端末110にサウンドに対するメタ情報登録要請を送信してユーザからメタ情報の入力を受けて登録する(S660)。そして、同一のメタ情報が検索されるユーザをグループ化してグループ情報を生成し(S650)、これをユーザ端末110に送信する。したがって、ソーシャルネットワークサービス提供サーバ130は、データベース140に登録されていないサウンドを或るユーザが入力した場合、当該サウンドを登録することによって、他のユーザが当該サウンドにマッチングされるサウンドを送信する際に、前者が後者と情報を共有できるようにしてもよく、或るユーザが送信したサウンドの特徴値と他のユーザが送信したサウンドの特徴値とがマッチしなくても、ユーザが送信したサウンドのメタ情報とマッチングされるメタ情報が検索されるユーザをグループ化することにより、ユーザにソーシャルネットワークサービスを提供してもよい。   Here, the social network service providing server 130 determines whether or not meta information matched with the extracted feature value is searched (S640), and if not searched, transmits a meta information registration request for sound to the user terminal 110. Then, the meta information is received from the user and registered (S660). Then, users who are searched for the same meta information are grouped to generate group information (S650), which is transmitted to the user terminal 110. Therefore, when a certain user inputs a sound that is not registered in the database 140, the social network service providing server 130 registers the sound so that another user transmits a sound that matches the sound. In addition, the former may share information with the latter, and the sound transmitted by the user even if the characteristic value of the sound transmitted by one user does not match the characteristic value of the sound transmitted by another user. Social users may be provided with a social network service by grouping users who are searched for meta information matched with the meta information.

本発明に係るソーシャルネットワークサービス提供方法は、多様なコンピュータ手段によって行うことができるプログラム命令形態で実現され、コンピュータ読み出し可能媒体に記録してもよい。前記記録媒体は、プログラム命令、データファイル、データ構造などを単独または組み合わせたものを含んでもよい。前記記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含んでもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コードを含む。上述のハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。   The social network service providing method according to the present invention may be realized in the form of program instructions that can be performed by various computer means, and may be recorded on a computer-readable medium. The recording medium may include a program instruction, a data file, a data structure, etc., alone or in combination. The recording medium and program instructions may be specially designed and configured for the purposes of the present invention, and may be known and usable by those skilled in the art of computer software technology. Good. Examples of computer-readable recording media include magnetic media such as hard disks, floppy (registered trademark) disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magnetic-lights such as floppy disks. The medium and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, etc. may be included. Examples of program instructions include not only machine language code generated by a compiler but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

上述したように本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。   As described above, the present invention has been described with reference to the limited embodiments and drawings. However, the present invention is not limited to the above-described embodiments, and any person having ordinary knowledge in the field to which the present invention belongs can be used. Various modifications and variations are possible from such an embodiment.

したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。   Therefore, the scope of the present invention is not limited to the disclosed embodiments, but is defined by the claims and equivalents of the claims.

110、120:ユーザ端末
130:ソーシャルネットワークサービス提供サーバ
140:データベース
110, 120: User terminal 130: Social network service providing server 140: Database

Claims (13)

ソーシャルネットワークサービス提供装置であって、
ユーザ端末からサウンドを受信するサウンド受信部と、
前記受信されるサウンドから特徴値を抽出する特徴値抽出部と、
前記抽出された特徴値同士がマッチするサウンドを送信するユーザ同士をグループ化してグループ情報を生成するグループ情報生成部と、
を備えることを特徴とするソーシャルネットワークサービス提供装置。
A social network service providing device,
A sound receiver for receiving sound from the user terminal;
A feature value extraction unit for extracting a feature value from the received sound;
A group information generation unit that generates group information by grouping users who transmit sounds that match the extracted feature values;
An apparatus for providing a social network service, comprising:
前記特徴値抽出部によって抽出された特徴値をデータベースに格納されたサウンドの特徴値と比較してマッチングされるメタ情報を検索するメタ情報検索部をさらに備え、
前記グループ情報生成部は、
前記検索されたメタ情報にマッチングされるメタ情報が検索されるユーザをグループ化して、前記グループ情報を生成することを特徴とする請求項1に記載のソーシャルネットワークサービス提供装置。
A meta information search unit that searches for meta information to be matched by comparing the feature value extracted by the feature value extraction unit with a feature value of a sound stored in a database;
The group information generation unit
The social network service providing apparatus according to claim 1, wherein the group information is generated by grouping users who are searched for meta information matched with the searched meta information.
前記抽出された特徴値にマッチングされる前記メタ情報が検索されない場合に、前記ユーザ端末から送信された前記サウンドに対するメタ情報が登録されるメタ情報登録部を
さらに備えることを特徴とする請求項2に記載のソーシャルネットワークサービス提供装置。
The meta information registration unit for registering meta information for the sound transmitted from the user terminal when the meta information matched with the extracted feature value is not searched. An apparatus for providing a social network service described in 1.
前記グループ情報生成部は、
前記サウンドが入力される時間に基づいて、各サウンドを送信したユーザ同士をグループ化して、前記グループ情報を生成する
ことを特徴とする請求項1乃至3のいずれかに記載のソーシャルネットワークサービス提供装置。
The group information generation unit
4. The social network service providing apparatus according to claim 1, wherein the group information is generated by grouping users who have transmitted each sound based on a time when the sound is input. .
前記グループ情報生成部は、
前記ユーザ端末の位置情報に基づいて、各サウンドを送信したユーザ同士をグループ化して、前記グループ情報を生成する
ことを特徴とする請求項3に記載のソーシャルネットワークサービス提供装置。
The group information generation unit
The social network service providing apparatus according to claim 3, wherein the group information is generated by grouping users who have transmitted each sound based on position information of the user terminal.
ソーシャルネットワークサービス提供装置であって、
サウンドが入力されるサウンド入力部と、
前記入力されるサウンドをソーシャルネットワークサービス提供サーバに送信するサウンド送信部と、
前記送信されるサウンドから抽出された特徴値同士がマッチングされるサウンドを前記ソーシャルネットワークサービス提供サーバに送信したユーザ同士をグループ化することによって生成されたグループ情報を、前記ソーシャルネットワークサービス提供サーバから受信して表示するグループ情報表示部と、
を備えることを特徴とするソーシャルネットワークサービス提供装置。
A social network service providing device,
A sound input section for inputting sound;
A sound transmitter for transmitting the input sound to a social network service providing server;
Group information generated by grouping users who transmitted to the social network service providing server a sound that matches feature values extracted from the transmitted sound is received from the social network service providing server. Group information display section to be displayed,
An apparatus for providing a social network service, comprising:
前記グループ情報は、
前記抽出された特徴値をデータベースに格納されたサウンドの特徴値と比較してマッチングされるメタ情報を検索し、前記検索されたメタ情報にマッチングされるメタ情報が検索されるユーザをグループ化することによって生成される
ことを特徴とする請求項6に記載のソーシャルネットワークサービス提供装置。
The group information is
The extracted feature value is compared with the feature value of the sound stored in the database to search for meta information to be matched, and the users whose meta information to be matched with the searched meta information is searched are grouped. The social network service providing apparatus according to claim 6, wherein the social network service providing apparatus is generated.
前記グループ情報は、
前記サウンドが入力される時間に基づいて前記サウンドを送信したユーザ同士をグループ化することによって生成されたり、前記ユーザ端末の位置情報に基づいて前記サウンドを送信したユーザ同士をグループ化することによって生成される
ことを特徴とする請求項6に記載のソーシャルネットワークサービス提供装置。
The group information is
Generated by grouping users who transmitted the sound based on the time when the sound is input, or generated by grouping users who transmitted the sound based on location information of the user terminal The social network service providing apparatus according to claim 6, wherein:
ソーシャルネットワークサービスを提供する方法において、
ユーザ端末からサウンドを受信するステップと、
前記受信されるサウンドから特徴値を抽出するステップと、
前記抽出された特徴値同士がマッチングされるサウンドを送信したユーザ同士をグループ化してグループ情報を生成するステップと、
前記生成されたグループ情報を前記ユーザ端末に送信するステップと、
を含むことを特徴とするソーシャルネットワークサービス提供方法。
In a method of providing a social network service,
Receiving sound from a user terminal;
Extracting feature values from the received sound;
Grouping users who have transmitted sounds matched with the extracted feature values to generate group information;
Transmitting the generated group information to the user terminal;
A social network service providing method comprising:
前記特徴値を抽出するステップ以後に、
前記抽出された特徴値を予め格納されたサウンドの特徴値と比較してマッチングされるメタ情報を検索するステップをさらに含み、
前記グループ情報を生成するステップは、
前記検索されたメタ情報にマッチングされるメタ情報が、検索されるユーザをグループ化して前記グループ情報を生成するステップであることを特徴とする請求項9に記載のソーシャルネットワークサービス提供方法。
After the step of extracting the feature value,
Comparing the extracted feature value with a pre-stored sound feature value to search for matched meta information;
The step of generating the group information includes:
The method for providing a social network service according to claim 9, wherein the meta information matched with the searched meta information is a step of grouping the searched users to generate the group information.
前記メタ情報を検索するステップ以後に、
前記抽出された特徴値にマッチングされる前記メタ情報が検索されない場合、前記ユーザ端末によって、前記受信されるサウンドに対するメタ情報が登録されるステップをさらに含む
ことを特徴とする請求項10に記載のソーシャルネットワークサービス提供方法。
After the step of searching the meta information,
The method of claim 10, further comprising: registering meta information for the received sound by the user terminal when the meta information matched with the extracted feature value is not searched. Social network service provision method.
前記グループ情報を生成するステップは、
前記サウンドが入力される時間に基づいて前記サウンドを送信したユーザ同士をグループ化して前記グループ情報を生成したり、前記ユーザ端末の位置情報に基づいて前記サウンドを送信したユーザ同士をグループ化して前記グループ情報を生成するステップである
ことを特徴とする請求項9乃至11のうちいずれかに記載のソーシャルネットワークサービス提供方法。
The step of generating the group information includes:
Group the users who transmitted the sound based on the time when the sound is input to generate the group information, or group the users who transmitted the sound based on the location information of the user terminal The social network service providing method according to claim 9, wherein the social network service providing method is a step of generating group information.
請求項9乃至12のうちいずれか1項のソーシャルネットワークサービス提供方法を実行するためのプログラムが記録されているコンピュータで読み出し可能な記録媒体。   A computer-readable recording medium in which a program for executing the social network service providing method according to any one of claims 9 to 12 is recorded.
JP2012160771A 2011-07-29 2012-07-19 Apparatus and method for providing social network service using sound Active JP5951382B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110075734A KR101786974B1 (en) 2011-07-29 2011-07-29 Apparatus and method for providing social network service using sound
KR10-2011-0075734 2011-07-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016114596A Division JP6220420B2 (en) 2011-07-29 2016-06-08 Social network service providing apparatus using sound, method and program thereof

Publications (2)

Publication Number Publication Date
JP2013033470A true JP2013033470A (en) 2013-02-14
JP5951382B2 JP5951382B2 (en) 2016-07-13

Family

ID=47789277

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2012160771A Active JP5951382B2 (en) 2011-07-29 2012-07-19 Apparatus and method for providing social network service using sound
JP2016114596A Active JP6220420B2 (en) 2011-07-29 2016-06-08 Social network service providing apparatus using sound, method and program thereof
JP2017187883A Active JP6554517B2 (en) 2011-07-29 2017-09-28 Apparatus and method for providing social network service using sound

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2016114596A Active JP6220420B2 (en) 2011-07-29 2016-06-08 Social network service providing apparatus using sound, method and program thereof
JP2017187883A Active JP6554517B2 (en) 2011-07-29 2017-09-28 Apparatus and method for providing social network service using sound

Country Status (2)

Country Link
JP (3) JP5951382B2 (en)
KR (1) KR101786974B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126623A (en) * 2015-01-06 2016-07-11 株式会社Nttドコモ Action support device, action support system, action support method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101827862B1 (en) 2017-10-11 2018-02-12 네이버 주식회사 Apparatus and method for providing social network service using sound

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062812A (en) * 2002-07-31 2004-02-26 Sony Corp Information providing system and method, information processing device and method, and computer program
JP2006301683A (en) * 2005-04-15 2006-11-02 Media Socket:Kk Electronic communication processor and electronic communication processing method
US20070130580A1 (en) * 2005-11-29 2007-06-07 Google Inc. Social and Interactive Applications for Mass Media
JP2009129257A (en) * 2007-11-26 2009-06-11 Sony Corp Server device, terminal device, method for processing and managing sympathetic action, and method and program for sympathetic action
US20090193124A1 (en) * 2008-01-28 2009-07-30 Sony Ericsson Mobile Communications Ab Methods, Portable Electronic Devices, Systems and Computer Program Products for Automatically Creating Social Networking Services (SNS)
US20110041154A1 (en) * 2009-08-14 2011-02-17 All Media Guide, Llc Content Recognition and Synchronization on a Television or Consumer Electronics Device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4965322B2 (en) * 2007-04-17 2012-07-04 日本電信電話株式会社 User support method, user support device, and user support program
JP2010198501A (en) * 2009-02-26 2010-09-09 Pioneer Electronic Corp Voice information selecting device, voice information selecting method, voice information selection program, and recording medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062812A (en) * 2002-07-31 2004-02-26 Sony Corp Information providing system and method, information processing device and method, and computer program
JP2006301683A (en) * 2005-04-15 2006-11-02 Media Socket:Kk Electronic communication processor and electronic communication processing method
US20070130580A1 (en) * 2005-11-29 2007-06-07 Google Inc. Social and Interactive Applications for Mass Media
JP2009129257A (en) * 2007-11-26 2009-06-11 Sony Corp Server device, terminal device, method for processing and managing sympathetic action, and method and program for sympathetic action
US20090193124A1 (en) * 2008-01-28 2009-07-30 Sony Ericsson Mobile Communications Ab Methods, Portable Electronic Devices, Systems and Computer Program Products for Automatically Creating Social Networking Services (SNS)
JP2011511346A (en) * 2008-01-28 2011-04-07 ソニー エリクソン モバイル コミュニケーションズ, エービー Method, mobile electronic device, system and computer program for automatically creating a social networking service (SNS)
US20110041154A1 (en) * 2009-08-14 2011-02-17 All Media Guide, Llc Content Recognition and Synchronization on a Television or Consumer Electronics Device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126623A (en) * 2015-01-06 2016-07-11 株式会社Nttドコモ Action support device, action support system, action support method, and program

Also Published As

Publication number Publication date
JP5951382B2 (en) 2016-07-13
JP2017224360A (en) 2017-12-21
KR20130026565A (en) 2013-03-14
KR101786974B1 (en) 2017-10-18
JP6554517B2 (en) 2019-07-31
JP6220420B2 (en) 2017-10-25
JP2016177840A (en) 2016-10-06

Similar Documents

Publication Publication Date Title
KR102299239B1 (en) Private domain for virtual assistant systems on common devices
KR102213637B1 (en) Encapsulating and synchronizing state interactions between devices
EP3841500B1 (en) Media intercom over a secure device to device communication channel
US11102259B2 (en) Network system for content playback on multiple devices
CN107209549B (en) Virtual assistant system capable of actionable messaging
US11880442B2 (en) Authentication of audio-based input signals
KR101894394B1 (en) Method and terminal for sharing contents
US9716683B2 (en) Method and apparatus for token determination for people awareness and location sharing
CN109241301A (en) Resource recommendation method and device
CN107533729B (en) Building a proximity social network database based on relative distance analysis of two or more operably coupled computers
AU2016203193B2 (en) Method of providing sns-group inviting service and sns server therefor
KR102079979B1 (en) Method for providing service using plurality wake up word in artificial intelligence device, and system thereof
US9977646B2 (en) Broadcast control and accrued history of media
US20150128071A1 (en) System and method for providing social network service
US20110197148A1 (en) Apparatus and method for providing network community service
JP6554517B2 (en) Apparatus and method for providing social network service using sound
KR101827862B1 (en) Apparatus and method for providing social network service using sound
KR20180138048A (en) Device and Method for providing social network service using sound entering
WO2013162420A2 (en) Method of monitoring information about user preferences on the basis of an analysis of user response to content (embodiments)
KR20140091126A (en) Content service system, apparatus and method for contet service in the system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160608

R150 Certificate of patent or registration of utility model

Ref document number: 5951382

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250