JP2012049922A - Mobile terminal and reminding method - Google Patents

Mobile terminal and reminding method Download PDF

Info

Publication number
JP2012049922A
JP2012049922A JP2010191399A JP2010191399A JP2012049922A JP 2012049922 A JP2012049922 A JP 2012049922A JP 2010191399 A JP2010191399 A JP 2010191399A JP 2010191399 A JP2010191399 A JP 2010191399A JP 2012049922 A JP2012049922 A JP 2012049922A
Authority
JP
Japan
Prior art keywords
scene
information
mobile terminal
word vector
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010191399A
Other languages
Japanese (ja)
Other versions
JP5461346B2 (en
Inventor
Yusuke Fukazawa
佑介 深澤
Satoshi Miyagawa
聡 宮川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2010191399A priority Critical patent/JP5461346B2/en
Publication of JP2012049922A publication Critical patent/JP2012049922A/en
Application granted granted Critical
Publication of JP5461346B2 publication Critical patent/JP5461346B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To remind a user at a proper time that a scene displayed on a mobile terminal is stored as a favorite.SOLUTION: The mobile terminal capable of communicating via a network comprises: a display unit; a storage unit which stores scene information containing the image of a scene displayed by the display unit and meta data; a periphery information acquisition unit which acquires, by use of positional information indicating the position of the mobile terminal, periphery information on the periphery of the position from an information server via the network; and a priority determination unit which calculates similarity between a word vector derived from the stored scene information and a word vector derived from the periphery information, thereby determining the priority of a scene indicated by the scene information. The display unit displays the image of a scene relatively high in priority.

Description

本発明は、移動端末及びリマインド方法に関連する。   The present invention relates to a mobile terminal and a remind method.

移動端末の進歩及び普及により、多くの移動端末は、動画を再生することができるだけでなく、動画の様々なシーンを「お気に入り」として登録することができる。例えば、シーンに登場したきれいな景色、俳優、製品等にユーザが興味を持った場合、ユーザは、そのシーンを「お気に入り」として登録できる。特定のシーンを「お気に入り」に関連付ける従来技術については、特許文献1に示されている。   With the advancement and popularization of mobile terminals, many mobile terminals can not only play moving pictures but also register various scenes of moving pictures as “favorites”. For example, if the user is interested in a beautiful scenery, actor, product, etc. that appeared in the scene, the user can register the scene as a “favorite”. A conventional technique for associating a specific scene with a “favorite” is disclosed in Patent Document 1.

シーンを見て保存した後、ユーザはシーンを登録したことを思い出し、例えば、景色を見ることができる場所、俳優のプロフィール、新製品の詳細等を調べることで、ユーザにとって有用な情報を得ることができる。   After viewing and saving a scene, the user remembers that he has registered the scene and gets useful information for the user, for example by looking at places where the view can be seen, actor profiles, new product details, etc. Can do.

特開2009−182875号公報JP 2009-182875 A

しかしながら、「お気に入り」として登録したシーンの数が多くなってくると、ユーザがそれら全てを適切に思い出すことは困難になってくる。例えば、ユーザが、あるシーンに登場した店舗に興味を持ってそのシーンを登録したとする。後日、ユーザが、偶然にその店舗の近くを歩いたとしても、登録したことを思い出せなかった場合、ユーザはその店舗に気付くことができない。さらに、ユーザが、シーンを登録したことを覚えていたとしても、その店舗が近くに存在することを知らなければ、ユーザは、店舗の近所を素通りしてしまうことになる。その結果、ユーザは後悔することになる一方、登録した情報が有効に活用されない点で問題がある。   However, as the number of scenes registered as “favorites” increases, it becomes difficult for the user to properly remember all of them. For example, assume that a user registers a scene with interest in a store that appears in a scene. Even if the user accidentally walks near the store at a later date, if the user cannot remember that he / she has registered, the user cannot notice the store. Furthermore, even if the user remembers that the scene has been registered, if the user does not know that the store is nearby, the user will pass through the neighborhood of the store. As a result, the user regrets, but there is a problem in that the registered information is not effectively used.

本発明の課題は、移動端末において表示されたシーンが「お気に入り」として保存されていることを、適切なタイミングでユーザが思い出せるようにすることである。   An object of the present invention is to allow a user to remember that a scene displayed on a mobile terminal is stored as a “favorite” at an appropriate timing.

本発明の一形態による移動端末は、
ネットワークを通じて通信することが可能な移動端末であって、
表示部と、
前記表示部が表示したシーンの画像及びメタデータを含むシーン情報を保存する保存部と、
当該移動端末の位置を示す位置情報を利用して、該位置周辺の周辺情報を前記ネットワークを介して情報サーバから取得する周辺情報取得部と、
保存されているシーン情報から導出された単語ベクトルと、前記周辺情報から導出された単語ベクトルとの類似度を算出することで、該シーン情報が示すシーンの優先度を決定する優先度決定部と
を有し、前記表示部は、前記優先度が相対的に高いシーンの画像を表示する、移動端末である。
A mobile terminal according to an aspect of the present invention provides:
A mobile terminal capable of communicating through a network,
A display unit;
A storage unit for storing scene information including scene images and metadata displayed by the display unit;
Using the location information indicating the location of the mobile terminal, the peripheral information acquisition unit that acquires the peripheral information around the location from the information server via the network;
A priority determining unit that determines the priority of the scene indicated by the scene information by calculating the similarity between the word vector derived from the stored scene information and the word vector derived from the peripheral information; The display unit is a mobile terminal that displays an image of a scene having a relatively high priority.

本発明の一形態によれば、移動端末において表示されたシーンが「お気に入り」として保存されていることを、適切なタイミングでユーザが思い出せるようにすることができる。   According to one aspect of the present invention, it is possible to allow a user to remember that a scene displayed on a mobile terminal is stored as a “favorite” at an appropriate timing.

実施例で使用される移動端末の機能ブロック図。The functional block diagram of the mobile terminal used in an Example. お気に入りシーンを登録する動作例を示すフローチャート。The flowchart which shows the operation example which registers a favorite scene. 再生中の動画の一シーンを示す図。The figure which shows one scene of the moving image during reproduction | regeneration. 画像及びメタデータが表示されている様子を示す図。The figure which shows a mode that the image and metadata are displayed. 特徴辞書の一例を示す図。The figure which shows an example of a characteristic dictionary. 単語ベクトルの一例を示す図。The figure which shows an example of a word vector. 保存済みのお気に入りシーンをリマインドする動作例を示すフローチャート。The flowchart which shows the operation example which reminds the preserve | saved favorite scene. 類似度の計算法を説明する図。The figure explaining the calculation method of similarity. お気に入りシーンをリマインドする様子を示す図。The figure which shows a mode that a favorite scene is reminded.

以下の観点から実施例を説明する。   Examples will be described from the following viewpoints.

1.移動端末
2.お気に入りシーンの登録
3.お気に入りシーンのリマインド
4.変形例
1. 1. Mobile terminal 2. Registration of favorite scenes Remind your favorite scenes 4. Modified example

<1.移動端末>
図1は、実施例で使用される移動端末の機能ブロック図を示す。図1は、移動端末に備わる様々な機能の内、本実施例に特に関連する機能要素が示されている。移動端末は、公衆電話網やインターネット等のようなネットワークを介して様々な装置(特に、位置情報や周辺情報を提供するサーバ)と通信することが可能な如何なるユーザ装置でもよい。移動端末は、典型的には携帯電話であるが、情報端末、スマートフォン、パーソナルディジタルアシスタント、携帯用パーソナルコンピュータ等でもよい。
<1. Mobile terminal>
FIG. 1 shows a functional block diagram of a mobile terminal used in the embodiment. FIG. 1 shows functional elements particularly related to the present embodiment among various functions provided in a mobile terminal. The mobile terminal may be any user device that can communicate with various devices (particularly, a server that provides location information and peripheral information) via a network such as a public telephone network or the Internet. The mobile terminal is typically a mobile phone, but may be an information terminal, a smartphone, a personal digital assistant, a portable personal computer, or the like.

移動端末は、動画再生部22、お気に入りシーン保存部23、シーン情報格納データベース24、シーン情報取得部25、現在位置情報取得部26、周辺情報取得部27、周辺情報格納データベース28、お気に入りシーン優先度決定部29、お気に入りシーン推薦理由生成部30及びお気に入りシーン並べ替え部31を有する。   The mobile terminal includes a video playback unit 22, a favorite scene storage unit 23, a scene information storage database 24, a scene information acquisition unit 25, a current position information acquisition unit 26, a peripheral information acquisition unit 27, a peripheral information storage database 28, a favorite scene priority A determination unit 29, a favorite scene recommendation reason generation unit 30, and a favorite scene rearrangement unit 31 are included.

動画再生部22は、動画を再生することに加えて、静止画その他の情報を表示することができる。したがって、図示されてはいないが、動画再生部22は、視覚的な表示部や、聴覚的な音を再生する拡声部(スピーカ)を少なくとも有する。   The moving image reproducing unit 22 can display still images and other information in addition to reproducing moving images. Therefore, although not shown, the moving image reproduction unit 22 includes at least a visual display unit and a loudspeaker unit (speaker) for reproducing auditory sounds.

お気に入りシーン保存部23は、ユーザが「お気に入り」として指定した特定のシーンを保存する。お気に入りシーンの登録の具体的な手順については、図2を参照しながら説明する。シーンの保存は、シーン情報をシーン情報格納データベース24に保存することにより行われる。シーン情報は、シーンの画像及びメタデータを含む。画像は動画でも静止画でもよいが、典型的には静止画(動画の一部分)である。メタデータは、シーンに登場する場所、人、事物、音楽、出来事等についての説明文を含む。場所は、緯度及び経度の情報により特定される。事物は、シーンに登場する店舗、製品、乗物等の情報により示される。音楽は、シーンに登場した音楽やメロディの作者や名称等により示される。出来事は、出来事の舞台となった場所、日付等により示される。メタデータに関するこれらの具体例は単なる例示にすぎず、当業者に既知の適切な如何なる情報が含まれてもよい。   The favorite scene storage unit 23 stores a specific scene designated by the user as “favorite”. A specific procedure for registering a favorite scene will be described with reference to FIG. The scene is saved by saving the scene information in the scene information storage database 24. The scene information includes scene images and metadata. The image may be a moving image or a still image, but is typically a still image (part of a moving image). Metadata includes descriptive text about places, people, things, music, events, etc. that appear in the scene. The location is specified by the latitude and longitude information. Things are indicated by information about stores, products, vehicles, etc. appearing in the scene. Music is indicated by the author or name of the music or melody that appeared in the scene. The event is indicated by the place, date, etc., where the event took place. These specific examples of metadata are merely exemplary and may include any appropriate information known to those skilled in the art.

シーン情報格納データベース24は、シーン情報取得部24により取得されたシーン情報を格納する。   The scene information storage database 24 stores the scene information acquired by the scene information acquisition unit 24.

シーン情報取得部25は、お気に入りシーン保存部23に保存されたシーンから、シーン情報を取得し、シーン情報格納データベース24に保存する。また、シーン情報取得部25は、後述の優先度を決定するためにシーン情報格納部データベース24からシーン情報を取得する。   The scene information acquisition unit 25 acquires scene information from the scene stored in the favorite scene storage unit 23 and stores it in the scene information storage database 24. Further, the scene information acquisition unit 25 acquires scene information from the scene information storage unit database 24 in order to determine a priority described later.

現在位置情報取得部26は、移動端末の現在の位置を示す位置情報を取得又は算出する。位置情報の取得は、当業者に既知の適切な如何なる方法により行われてもよい。例えば、移動端末が不図示のGPS受信機を備えていた場合、GPS受信機がGPS衛星から受信した信号に基づいて、移動端末の位置情報を算出してもよい。あるいは、移動端末が、複数の固定点(典型的には、基地局)から受信した信号を利用して測量を行うことで、位置情報を算出してもよい。また、移動端末は、何らかの情報提供サービスを利用することで位置情報を取得してもよい。例えば、ネットワークを介して位置情報提供サーバから位置情報を取得してもよい。位置情報は、典型的には緯度及び経度により表現されるが、他の方法で表現されてもよい。例えば、位置情報は、水平面内の座標に加えて、高さ方向の座標を含んでもよい。   The current position information acquisition unit 26 acquires or calculates position information indicating the current position of the mobile terminal. The acquisition of the position information may be performed by any appropriate method known to those skilled in the art. For example, when the mobile terminal includes a GPS receiver (not shown), the position information of the mobile terminal may be calculated based on a signal received by the GPS receiver from a GPS satellite. Alternatively, the mobile terminal may calculate the position information by performing surveying using signals received from a plurality of fixed points (typically, base stations). In addition, the mobile terminal may acquire location information by using some information providing service. For example, the position information may be acquired from a position information providing server via a network. The position information is typically expressed by latitude and longitude, but may be expressed by other methods. For example, the position information may include coordinates in the height direction in addition to the coordinates in the horizontal plane.

周辺情報取得部27は、移動端末の現在の位置情報を利用して、その位置周辺の周辺情報を取得する。例えば、移動端末が、現在の位置情報とともに、ネットワークを介して周辺情報提供サーバにアクセスすることで、周辺情報を取得してもよい。上記の位置情報提供サーバ及び周辺情報提供サーバは、別々のネットワーク要素でもよいし、同じネットワーク要素でもよい。周辺情報は、例えば、指定された位置の周辺に存在する建物、店舗、施設、企業、学校、公園、道路、河川、港その他の地図情報(位置情報を含む)に加えて、それらの説明文を含む。移動端末は、現在の位置情報だけでなく、何らかのフィルタリング情報を周辺情報提供サーバに提供し、全ての周辺情報の内、ユーザが特に関心を持っている周辺情報のみが、移動端末に提供されるようにしてもよい。例えば、和食のレストランのみを指定するフィルタリング情報により、現在の位置の周辺に存在する和食のレストランの情報が、移動端末に提供されてもよい。   The peripheral information acquisition unit 27 uses the current position information of the mobile terminal to acquire peripheral information around the position. For example, the mobile terminal may acquire the peripheral information by accessing the peripheral information providing server via the network together with the current position information. The location information providing server and the peripheral information providing server may be separate network elements or the same network element. Peripheral information includes, for example, buildings, stores, facilities, companies, schools, parks, roads, rivers, ports, and other map information (including location information) that exist around the specified location, as well as their explanatory text. including. The mobile terminal provides not only the current position information but also some filtering information to the peripheral information providing server, and only the peripheral information that the user is particularly interested in is provided to the mobile terminal. You may do it. For example, information on Japanese restaurants that exist around the current location may be provided to the mobile terminal by filtering information that specifies only Japanese restaurants.

周辺情報格納データベース28は、周辺情報取得部27により取得した周辺情報を格納する。   The peripheral information storage database 28 stores the peripheral information acquired by the peripheral information acquisition unit 27.

お気に入りシーン優先度決定部29は、シーン情報格納部データベース24に保存されているシーン各々に対する優先度を、後述の方法により決定する。概して、あるシーンの優先度が高い場合、そのシーンが現在のユーザに優先的にリマインドされる。リマインドは、一例として、シーンの画像のサムネイルを、何らかの説明文(具体的には、推薦理由)とともに表示することにより行われる。逆に、あるシーンの優先度が低い場合、そのシーンを現在のユーザにリマインドする必要性は少ない。   The favorite scene priority determination unit 29 determines the priority for each scene stored in the scene information storage unit database 24 by the method described later. In general, if a scene has a high priority, that scene is preferentially reminded to the current user. For example, the reminder is performed by displaying a thumbnail of an image of a scene together with some explanatory text (specifically, a reason for recommendation). Conversely, if the priority of a scene is low, there is little need to remind that scene to the current user.

お気に入りシーン推薦理由生成部30は、後述の方法で決定された優先度にしたがってシーンの画像をユーザに提示する際、画像とともに表示する推薦理由を示す情報を生成する。推薦理由を示す情報として、ユーザがシーンを登録する際に指定した情報を使用することができる。例えば、ユーザが、シーンに登場した公園に興味を持ち、そのシーンを「お気に入り」に登録したとする。登録(保存)の際、場所に興味があることをユーザが指定してシーン情報格納部データベース24に保存していたとする。例えば、表示部のタッチパネルにおいて「場所」、「製品」、「人」を示すボタンの内、「場所」のボタンを押すことで、場所に興味があることを指定できる。この場合、お気に入りシーン推薦理由生成部30は、ユーザに提示されるシーンの画像に付随する推薦理由として、場所に興味があったことが表示されるようにする。一例として、画像のサムネイルの横に「場所」の文字が表示される。   The favorite scene recommendation reason generation unit 30 generates information indicating a recommendation reason to be displayed together with an image when an image of the scene is presented to the user according to the priority determined by a method described later. As information indicating the reason for recommendation, information specified when the user registers a scene can be used. For example, it is assumed that the user is interested in a park that appears in a scene and registers the scene as a “favorite”. It is assumed that the user specifies that he / she is interested in a place at the time of registration (save), and the scene information storage unit database 24 stores it. For example, it is possible to specify that the user is interested in a place by pressing a “place” button among the buttons indicating “place”, “product”, and “person” on the touch panel of the display unit. In this case, the favorite scene recommendation reason generation unit 30 displays that the user is interested in the location as the recommendation reason accompanying the scene image presented to the user. As an example, the word “location” is displayed next to the thumbnail of the image.

お気に入りシーン並べ替え部31は、後述の方法で決定された優先度にしたがって、シーンを表示する順序を決定する。   The favorite scene rearrangement unit 31 determines the order in which the scenes are displayed according to the priority determined by the method described later.

<2.お気に入りシーンの登録>
以下、本実施例の動作例を説明する。説明する動作は、移動端末において行われる。動作例は、お気に入りシーンを登録するための動作と、登録したお気に入りシーンをリマインドする動作とに分けて説明される。
<2. Register favorite scenes>
Hereinafter, an operation example of this embodiment will be described. The described operation is performed at the mobile terminal. The operation example will be described separately for an operation for registering a favorite scene and an operation for reminding a registered favorite scene.

図2は、お気に入りシーンを登録するための動作例を示す。ステップ202において、ユーザは、移動端末において動画を再生している。実施例は動画に限定されず、静止画が表示されていてもよい。   FIG. 2 shows an operation example for registering a favorite scene. In step 202, the user is playing a video on the mobile terminal. The embodiment is not limited to moving images, and still images may be displayed.

ステップ204において、ユーザは、動画再生中に気に入ったシーンを発見し、そのシーンを保存する。図3は、動画の一シーンを示す図である。図4は、図3に示されるシーンの画像とともに表示される各種の情報(メタデータ)を示す。図3、図4に示されるように、シーンは画像41とメタデータ42−47により表現され、ユーザは、画像41だけでなく、場所情報42、人物情報43、事物情報44、その他の情報45、タイトル46及びURL47を確認することができる。画像41は、動画又は静止画を示す。場所情報42ないしURL47の情報は、シーンのメタデータに含まれる情報である。場所情報42は、シーンに登場する場所についての情報である。人物情報43は、シーンに登場する人物についての情報である。事物情報44は、シーンに登場する物や出来事についての情報である。例えば、画像に写っている車両の情報が事物情報44に含まれる。その他の情報45は、シーンに登場する場所、人物及び事物以外についての情報であり、例えば、動画がテレビジョンで放送された日時の情報や、シーンに流れた音楽についての情報等を含む。タイトル46は、シーンに付随するタイトルを示す。URL(ユニバーサルリソースロケータ)47は、動画を配信しているサイトを示す。図3の例は、画像41とともに場所情報42が右側に表示されている様子を示す。   In step 204, the user finds a favorite scene during moving image reproduction and saves the scene. FIG. 3 is a diagram showing one scene of a moving image. FIG. 4 shows various information (metadata) displayed together with the scene image shown in FIG. As shown in FIGS. 3 and 4, the scene is represented by an image 41 and metadata 42-47, and the user is not only the image 41 but also location information 42, person information 43, thing information 44, and other information 45. , Title 46 and URL 47 can be confirmed. The image 41 shows a moving image or a still image. The place information 42 or the information of the URL 47 is information included in the metadata of the scene. The place information 42 is information about places that appear in the scene. The person information 43 is information about a person appearing in the scene. The thing information 44 is information about things and events that appear in the scene. For example, information on the vehicle shown in the image is included in the thing information 44. The other information 45 is information about places other than those appearing in the scene, persons, and things, and includes, for example, information on the date and time when the moving image was broadcast on television, information about music that flowed in the scene, and the like. The title 46 indicates a title accompanying the scene. A URL (Universal Resource Locator) 47 indicates a site that distributes moving images. The example of FIG. 3 shows a state where the location information 42 is displayed on the right side together with the image 41.

メタデータは、原則として動画のシーン毎に用意され、一例として、動画が再生される際の一定の期間毎に(例えば、5分間の動画セグメント毎に)メタデータが更新される。   In principle, the metadata is prepared for each scene of the moving image, and as an example, the metadata is updated at a certain period when the moving image is reproduced (for example, every moving image segment for 5 minutes).

気に入ったシーンに対して、ユーザが、保存ボタン48を押すことで、シーンが保存される。なお、気に入ったシーンが表示された時点と、保存ボタン48を押した時点との間の時間差を少なくする観点からは、ユーザが保存ボタン48を押した直前のシーンが保存されるようにしてもよい。   When the user presses the save button 48 for a favorite scene, the scene is saved. From the viewpoint of reducing the time difference between when the favorite scene is displayed and when the save button 48 is pressed, the scene immediately before the user presses the save button 48 may be saved. Good.

図2のステップ206において、保存されたシーンからシーン情報(シーンの画像及びメタデータ)が取得される。取得されたシーン情報は、シーン情報格納部データベース24に保存される。   In step 206 of FIG. 2, scene information (scene images and metadata) is obtained from the stored scene. The acquired scene information is stored in the scene information storage database 24.

ステップ208において、ユーザが、リマインド条件を指定する。後述するように、登録されたシーンは、後にユーザにリマインドされる。リマインドは、典型的には、保存したシーンの画像のサムネイルと、付随する説明とを表示部に表示することにより行われる。付随する説明は、上記の「推薦理由」に対応する。例えば、ユーザが、シーンに登場した公園に興味を持っていた場合、そのシーンの登録の際、表示部のタッチパネルにおいて「場所」、「製品」、「人」を示すボタンの内、「場所」のボタンを押すことで、場所に興味があることを指定する。この場合、推薦理由は、「場所」である。一例として、リマインドの際、画像のサムネイルの横に「場所」の文字が表示される。   In step 208, the user specifies a remind condition. As will be described later, the registered scene is later reminded to the user. Reminding is typically performed by displaying a thumbnail of an image of a saved scene and an accompanying description on the display unit. The accompanying description corresponds to the above “reason for recommendation”. For example, if the user is interested in a park that appears in a scene, when registering the scene, the “location” among the buttons indicating “location”, “product”, “person” on the touch panel of the display unit Specify that you are interested in a place by pressing the button. In this case, the recommendation reason is “place”. As an example, when reminding, the word “location” is displayed next to the thumbnail of the image.

なお、ステップ208は本実施例において必須の手順ではなく、省略されてもよい。   Note that step 208 is not an essential procedure in the present embodiment, and may be omitted.

ステップ210において、登録されたシーンのシーン情報から位置情報が生成され、かつシーン情報が単語ベクトルに変換される。上述したように、シーン情報には、場所情報42、人物情報43、事物情報44等の情報が含まれている。本実施例の場合、どのシーン情報にも場所情報42が含まれている。すなわち、シーン情報のメタデータの内、場所情報は必須であるが、人物情報43、事物情報44及びその他の情報45は任意的である。一例として、位置情報は、緯度及び経度により表現される。図3の例の場合、シーンに登場している公園の緯度及び経度の情報が、位置情報として生成される。   In step 210, position information is generated from the scene information of the registered scene, and the scene information is converted into a word vector. As described above, the scene information includes information such as location information 42, person information 43, and thing information 44. In this embodiment, location information 42 is included in any scene information. That is, in the metadata of the scene information, the location information is essential, but the person information 43, the thing information 44, and the other information 45 are optional. As an example, the position information is expressed by latitude and longitude. In the case of the example in FIG. 3, the latitude and longitude information of the park appearing in the scene is generated as the position information.

シーン情報のメタデータは、何らかの情報抽出アルゴリズムにより、単語ベクトルに変換される。単語ベクトルは、特徴ベクトルとも言及される。情報抽出アルゴリズムは、例えば形態素解析アルゴリズムである。メタデータについて形態素解析を行うことで、メタデータの説明文が品詞毎に分類される。品詞は、概して、一般名詞、固有名詞、動詞、助詞等を含む。形態素解析の結果、シーンのメタデータから一般名詞及び固有名詞が抽出される。抽出された名詞各々が、特徴辞書における所定の言葉(特徴要素)に対応付けられているか否かを判別することで、そのシーンの単語ベクトルが生成される。   The metadata of scene information is converted into a word vector by some information extraction algorithm. A word vector is also referred to as a feature vector. The information extraction algorithm is, for example, a morphological analysis algorithm. By performing morphological analysis on the metadata, the description of the metadata is classified for each part of speech. Part of speech generally includes general nouns, proper nouns, verbs, particles, and the like. As a result of the morphological analysis, general nouns and proper nouns are extracted from the scene metadata. By determining whether or not each extracted noun is associated with a predetermined word (feature element) in the feature dictionary, a word vector of the scene is generated.

図5は、特徴辞書の一例を示す。「特徴要素(Features)」は、単語ベクトルの要素又は成分となる言葉を表す。「マッチング対象属性(Matching target attribute)」は、シーンのメタデータを特徴要素に対応付ける際に、メタデータのどの属性と照合するかを表す。概して、マッチング対象属性には、「カテゴリ(Category)」と「説明文(Description)」とがある。「カテゴリ」の場合、説明文中の個々の言葉ではなく、カテゴリを表す言葉が一致するか否かに基づいて、メタデータが特徴要素を有するか否かが判定される。「説明文」の場合、説明文中の個々の言葉が、特徴要素を有するか否かが判定される。「マッチング情報(Matching Information)」は、照合する対象の個々の言葉を示す。1つの特徴要素に対して、1つ以上のマッチング情報が存在する。マッチング情報は、一般的には、キーワード及びキーワードに付随するウェイトにより表現される。カテゴリの説明の文字数は少ないので、図示の例において、カテゴリ同士の比較の場合、ウェイトは全て1に統一されている。これに対して、説明文の比較の場合、様々な言葉の表現に応じて、ウェイトが設定されている。形態素解析の結果、例えば、メタデータの説明文中に「公園」という名詞が含まれていた場合、このシーンのメタデータの単語ベクトルは、「公園」という特徴要素を有する。   FIG. 5 shows an example of a feature dictionary. “Features” represents words that are elements or components of a word vector. “Matching target attribute” indicates which attribute of the metadata is to be checked when the metadata of the scene is associated with the feature element. Generally, matching target attributes include “Category” and “Description”. In the case of “category”, it is determined whether or not the metadata has a feature element based on whether or not words representing the category match instead of individual words in the explanatory text. In the case of “description”, it is determined whether each word in the description has a feature element. “Matching information” indicates individual words to be collated. One or more matching information exists for one feature element. The matching information is generally expressed by a keyword and a weight attached to the keyword. Since the number of characters in the description of the category is small, in the example shown in the figure, all weights are unified to 1 when comparing categories. On the other hand, in the case of comparison of explanatory texts, weights are set according to expressions of various words. As a result of the morphological analysis, for example, when the noun “park” is included in the description of the metadata, the word vector of the metadata of this scene has a characteristic element “park”.

図6は、単語ベクトルの一例を示す。1つのシーン情報は、1つのシーン識別子(シーンID)により区別される。図示の例の場合、6つのシーンに対する単語ベクトルが示されている。S1−S6のシーンID各々について、所定の特徴要素が含まれているか否かが示されている。1はその特徴要素を含んでいることを示す。0はその特徴要素を含んでいないことを示す。例えば、シーンID−S4の単語ベクトルは、「ニュース」、「バラエティ」、「ドラマ」及び「公園」という4つの特徴要素を含む。   FIG. 6 shows an example of a word vector. One scene information is distinguished by one scene identifier (scene ID). In the illustrated example, word vectors for six scenes are shown. For each scene ID of S1-S6, it is shown whether or not a predetermined feature element is included. 1 indicates that the feature element is included. 0 indicates that the feature element is not included. For example, the word vector of the scene ID-S4 includes four characteristic elements “news”, “variety”, “drama”, and “park”.

ステップ210では、保存したシーンのメタデータから位置情報及び単語ベクトルが導出され、保存された特定のシーン各々について、単語ベクトル及び位置情報が保存される。   In step 210, position information and word vectors are derived from the stored scene metadata, and word vectors and position information are stored for each of the stored specific scenes.

<3.お気に入りシーンのリマインド>
図7は、保存済みのお気に入りシーンをリマインドするための動作例を示す。図2を参照しながら説明したように、ユーザは、幾つかのシーンをお気に入りとして保存している。保存されている特定のシーン各々について、単語ベクトル及び位置情報が保存されている。
<3. Remind your favorite scenes>
FIG. 7 shows an operation example for reminding a saved favorite scene. As described with reference to FIG. 2, the user stores several scenes as favorites. For each specific scene stored, word vectors and position information are stored.

ステップ702において、移動端末は、現在の位置情報に基づいて周辺情報を取得する。現在の位置情報は、移動端末に搭載されているGPS受信機が受信した情報から算出してもよいし、ネットワークを介して位置情報提供サーバにアクセスすることにより取得してもよいし、他の方法により求めてもよい。移動端末は、現在の位置情報とともに、ネットワークを介して周辺情報提供サーバにアクセスすることで、周辺情報を取得してもよい。上記の位置情報提供サーバ及び周辺情報提供サーバは、別々のネットワーク要素でもよいし、同じネットワーク要素でもよい。周辺情報は、例えば、指定された位置の周辺に存在する建物、店舗、施設、企業、学校、公園、道路、河川、港その他の地図情報(位置情報を含む)に加えて、それらの説明文を含む。移動端末は、現在の位置情報だけでなく、何らかのフィルタリング情報を周辺情報提供サーバに提供し、全ての周辺情報の内、ユーザが特に関心を持っている周辺情報のみが、移動端末に提供されるようにしてもよい。   In step 702, the mobile terminal obtains peripheral information based on the current location information. The current location information may be calculated from information received by a GPS receiver mounted on a mobile terminal, may be obtained by accessing a location information providing server via a network, You may obtain | require by the method. The mobile terminal may acquire the peripheral information by accessing the peripheral information providing server via the network together with the current position information. The location information providing server and the peripheral information providing server may be separate network elements or the same network element. Peripheral information includes, for example, buildings, stores, facilities, companies, schools, parks, roads, rivers, ports, and other map information (including location information) that exist around the specified location, as well as their explanatory text. including. The mobile terminal provides not only the current position information but also some filtering information to the peripheral information providing server, and only the peripheral information that the user is particularly interested in is provided to the mobile terminal. You may do it.

ステップ704において、移動端末は、取得した周辺情報から単語ベクトルを生成する。単語ベクトルの生成法自体は、図2のステップ210において説明した方法と同様である。先ず、周辺情報を表す説明文が形態素解析により品詞毎に分類され、一般名詞及び固有名詞が抽出される。それらの名詞が特徴辞書(図5)における所定の言葉に対応するか否かを判別することで、周辺情報の単語ベクトルが生成される。   In step 704, the mobile terminal generates a word vector from the acquired peripheral information. The word vector generation method itself is the same as the method described in step 210 of FIG. First, explanatory text representing peripheral information is classified for each part of speech by morphological analysis, and general nouns and proper nouns are extracted. By determining whether or not these nouns correspond to predetermined words in the feature dictionary (FIG. 5), a word vector of peripheral information is generated.

ステップ706において、シーン情報の単語ベクトルと、周辺情報の単語ベクトルとの類似度が算出される。類似度は当業者に既知の適切な如何なる方法により算出されてもよい。一例として、単語ベクトル同士の類否は、次式に示すように、ベクトル同士がなす角度に基づいて導出されてもよい。   In step 706, the similarity between the word vector of the scene information and the word vector of the peripheral information is calculated. The similarity may be calculated by any appropriate method known to those skilled in the art. As an example, similarity between word vectors may be derived based on an angle formed by the vectors, as shown in the following equation.

この場合において、sim(Xs,Xi)は、シーン情報の単語ベクトルXsと、周辺情報の単語ベクトルXsとの類似度を示す。この類似度は、コサイン類似度とも言及される。Xs・Xiは、単語ベクトルXsとXiの内積を示す。|Xs|は単語ベクトルXsの大きさ(二乗ノルム)を示す。|Xi|は単語ベクトルXiの大きさ(二乗ノルム)を示す。 In this case, sim (Xs, Xi) indicates the similarity between the word vector Xs of the scene information and the word vector Xs of the peripheral information. This similarity is also referred to as cosine similarity. Xs · Xi represents the inner product of the word vectors Xs and Xi. | Xs | indicates the size (square norm) of the word vector Xs. | Xi | indicates the size (square norm) of the word vector Xi.

図8は、類似度を算出する様子を示す。簡明化のため、シーンIDS1−S6の単語ベクトルが、図6左側の破線枠部分の4成分により表現されていたとする。さらに、周辺情報の単語ベクトルXiが、(スポーツ,ニュース,バラエティ,音楽)=(0.4,0.7,0.2,0.7)であったとする。この場合、シーンID−S1と周辺情報の単語ベクトルの類似度sim(Xs1,Xi)は、(0.11)/√2√(0.42+0.72+0.22+0.72)≒0.72 となる。同様に、他のシーンについても類似度を計算することができ、以下のような計算結果が得られる。 FIG. 8 shows how the similarity is calculated. For simplification, it is assumed that the word vector of the scene IDS1-S6 is expressed by the four components in the broken line frame portion on the left side of FIG. Further, it is assumed that the word vector Xi of the peripheral information is (sports, news, variety, music) = (0.4, 0.7, 0.2, 0.7). In this case, the similarity sim (Xs1, Xi) between the scene ID-S1 and the word vector of the peripheral information is (0.11) / √2√ (0.4 2 +0.7 2 +0.2 2 +0.7 2 ) ≒ 0.72. Similarly, similarities can be calculated for other scenes, and the following calculation results are obtained.

シーンID−S1と周辺情報の単語ベクトルの類似度sim(Xs1,Xi)=0.72
シーンID−S2と周辺情報の単語ベクトルの類似度sim(Xs2,Xi)=0.85
シーンID−S3と周辺情報の単語ベクトルの類似度sim(Xs3,Xi)=0.91
シーンID−S4と周辺情報の単語ベクトルの類似度sim(Xs4,Xi)=0.59
シーンID−S5と周辺情報の単語ベクトルの類似度sim(Xs5,Xi)=0.72
シーンID−S6と周辺情報の単語ベクトルの類似度sim(Xs6,Xi)=0.72。
Similarity sim (Xs1, Xi) = 0.72 between the scene ID-S1 and the word vector of the peripheral information
Similarity sim (Xs2, Xi) = 0.85 between scene ID-S2 and word vector of peripheral information
Similarity sim (Xs3, Xi) = 0.91 between the scene ID-S3 and the word vector of the peripheral information
Similarity sim (Xs4, Xi) = 0.59 between the scene ID-S4 and the word vector of the peripheral information
Similarity sim (Xs5, Xi) = 0.72 between the scene ID-S5 and the word vector of the peripheral information
Similarity sim (Xs6, Xi) = 0.72 between the scene ID-S6 and the word vector of the peripheral information.

このように、図7のステップ706では、保存したシーンの各々の単語ベクトルXsと、周辺情報の単語ベクトルXiとの類似度が計算される。   In this way, in step 706 of FIG. 7, the similarity between each word vector Xs of the saved scene and the word vector Xi of the peripheral information is calculated.

図7のステップ708において、移動端末は、計算した類似度に基づいて、保存しているシーンの優先度を決定する。優先度は、類似度だけに基づいて決定されてもよいし、変形例において説明するように、類似度とは異なる基準を加味して決定されてもよい。説明の便宜上、優先度は、類似度から決定されるものとする。すなわち、シーン情報及び周辺情報の単語ベクトル同士が類似していれば、そのシーンの優先度は高く、類似していなければ、そのシーンの優先度は低い。   In step 708 of FIG. 7, the mobile terminal determines the priority of the stored scene based on the calculated similarity. The priority may be determined based only on the similarity, or may be determined in consideration of a criterion different from the similarity, as will be described in the modification. For convenience of explanation, it is assumed that the priority is determined from the similarity. In other words, if the word vectors of the scene information and the peripheral information are similar, the priority of the scene is high, and if the word vectors are not similar, the priority of the scene is low.

ステップ710において、移動端末は、保存しているシーンを優先度に応じて表示することで、シーンを登録したことをユーザにリマインドする。リマインドは、優先度が高いシーンから順に行われる。   In step 710, the mobile terminal reminds the user that the scene has been registered by displaying the stored scene according to the priority. Reminding is performed in order from the scene with the highest priority.

図9は、お気に入りシーンをリマインドする様子を示す。例えば、ユーザが、ある動画のシーンに登場したXXX公園に興味を持ち、そのシーンをシーンID−Sxとして登録していたとする。後日、ユーザが別の用事でそのXXX公園の近辺にいたとする。この場合、シーンID−Sxの単語ベクトルと、ユーザの現在位置の周辺情報の単語ベクトルとの類似度は高い。移動端末は、類似度が高いシーンを登録していることを表示するために、画像のサムネイルを表示する。これにより、ユーザは、そのシーンの場所に興味を持って登録したことを思い出すことができ、その画像をクリックすることで、地図情報とともにその場所の詳細がユーザに提示される。   FIG. 9 shows how a favorite scene is reminded. For example, it is assumed that the user is interested in an XXX park that appears in a scene of a moving image and registers the scene as a scene ID-Sx. Suppose the user is in the vicinity of the XXX park for another errand later. In this case, the similarity between the word vector of the scene ID-Sx and the word vector of the peripheral information at the current position of the user is high. The mobile terminal displays a thumbnail of the image in order to display that a scene with a high similarity is registered. As a result, the user can remember that he / she is interested in the location of the scene, and by clicking on the image, the details of the location are presented to the user together with the map information.

なお、ユーザにリマインドするシーンは、優先度ないし類似度が一定値以上であるものに限定して行われる。登録したシーンとあまり関係ない状況でユーザにリマインドしても、リマインドの意義が薄いからである。   It should be noted that scenes that are reminded to the user are limited to those whose priority or similarity is a certain value or more. This is because even if the user is reminded in a situation that is not closely related to the registered scene, the significance of reminding is weak.

さらに、リマインドする際の条件をユーザが指定することも可能である。例えば、シーンを登録する際に、ユーザが、「場所」、「人」又は「事物」の内の何れかをシーンとともに登録する。ユーザが、場所についてのリマインドを希望し、その他についてのリマインドを強くは希望していないことを移動端末に設定したとする。この場合、移動端末は、保存されたシーンの内、「場所」について保存されたもののみを抽出し、それぞれの優先度を決定してリマインドを行う。これにより、ユーザが希望したものに絞り込んでリマインドをすることが可能になる。   Furthermore, it is possible for the user to specify conditions for reminding. For example, when a scene is registered, the user registers any one of “place”, “person”, and “thing” along with the scene. It is assumed that the user has set a mobile terminal that desires a reminder about a place and does not strongly desire a reminder about others. In this case, the mobile terminal extracts only the saved scenes for the “location” from the saved scenes, determines each priority level, and performs reminding. Thereby, it becomes possible to narrow down to what the user desires and to perform a reminder.

<4.変形例>
上述したように、シーンの優先度は、単語ベクトル同士の類似度だけでなく、他の情報を加味して決定されてもよい。例えば、シーン情報に示されている場所と、現在の位置との間の距離が加味されてもよい。距離が近いほど、シーンをリマインドすべき状況として相応しいからである。例えば、シーン情報と周辺情報の単語ベクトルの類似度を5段階で表現した第1の値(d1=1,2,...,5)と、距離の近接度合いを5段階で表現した値(d2=1,2,...,5)とを加算した合計ポイント(D)により、優先度が決定されてもよい。最も類似している場合、d1=5であり、最も近接している場合、d2=5であり、2≦D≦10である。
<4. Modification>
As described above, the priority of a scene may be determined by taking into account not only the similarity between word vectors but also other information. For example, the distance between the location indicated in the scene information and the current position may be taken into account. This is because the closer the distance is, the more suitable the situation should be for reminding the scene. For example, a first value (d1 = 1, 2,..., 5) that expresses the similarity between the word vectors of the scene information and the peripheral information in five levels, and a value that expresses the proximity of the distance in five levels ( The priority may be determined by a total point (D) obtained by adding d2 = 1, 2,..., 5). If they are most similar, d1 = 5, and if they are closest, d2 = 5 and 2 ≦ D ≦ 10.

D=d1+d2
あるいは、第1の値(d1)と第2の値(d2)を重み付け加算してもよい。
D = d1 + d2
Alternatively, the first value (d1) and the second value (d2) may be weighted and added.

D=αd1+βd2
ここで、α、βは所定の定数である。優先度を決定する際に、類似度に加えて距離を考慮するだけでなく、別の情報(例えば、時間)がさらに考慮されてもよい。
D = αd1 + βd2
Here, α and β are predetermined constants. In determining the priority, not only the distance is taken into consideration in addition to the similarity, but also other information (for example, time) may be further taken into consideration.

以上本発明は特定の実施例を参照しながら説明されてきたが、それらは単なる例示に過ぎず、当業者は様々な変形例、修正例、代替例、置換例等を理解するであろう。発明の理解を促すため具体的な数値例を用いて説明がなされたが、特に断りのない限り、それらの数値は単なる一例に過ぎず適切な如何なる値が使用されてもよい。発明の理解を促すため具体的な数式を用いて説明がなされたが、特に断りのない限り、それらの数式は単なる一例に過ぎず適切な如何なる数式が使用されてもよい。実施例又は項目の区分けは本発明に本質的ではなく、2以上の項目に記載された事項が必要に応じて組み合わせて使用されてよいし、ある項目に記載された事項が、別の項目に記載された事項に(矛盾しない限り)適用されてよい。説明の便宜上、本発明の実施例に係る装置は機能的なブロック図を用いて説明されたが、そのような装置はハードウェアで、ソフトウェアで又はそれらの組み合わせで実現されてもよい。ソフトウェアは、ランダムアクセスメモリ(RAM)、フラッシュメモリ、読み取り専用メモリ(ROM)、EPROM、EEPROM、レジスタ、ハードディスク(HDD)、リムーバブルディスク、CD−ROM、データベース、サーバその他の適切な如何なる記憶媒体に格納されてもよい。本発明は上記実施例に限定されず、本発明の精神から逸脱することなく、様々な変形例、修正例、代替例、置換例等が本発明に包含される。   Although the present invention has been described with reference to particular embodiments, they are merely exemplary and those skilled in the art will appreciate various variations, modifications, alternatives, substitutions, and the like. Although specific numerical examples have been described in order to facilitate understanding of the invention, these numerical values are merely examples and any appropriate values may be used unless otherwise specified. Although specific mathematical formulas have been described to facilitate understanding of the invention, these mathematical formulas are merely examples, unless otherwise specified, and any appropriate mathematical formula may be used. The classification of the examples or items is not essential to the present invention, and the items described in two or more items may be used in combination as necessary, and the items described in one item may be combined with other items. It may be applied (as long as it is not inconsistent) to the matters described. For convenience of explanation, an apparatus according to an embodiment of the present invention has been described using a functional block diagram, but such an apparatus may be realized by hardware, software, or a combination thereof. Software can be stored on random access memory (RAM), flash memory, read only memory (ROM), EPROM, EEPROM, registers, hard disk (HDD), removable disk, CD-ROM, database, server or any other suitable storage medium May be. The present invention is not limited to the above embodiments, and various modifications, modifications, alternatives, substitutions, and the like are included in the present invention without departing from the spirit of the present invention.

22 動画再生部
23 お気に入りシーン保存部
24 シーン情報格納データベース
25 シーン情報取得部
26 現在位置情報取得部
27 周辺情報取得部
28 周辺情報格納データベース
29 お気に入りシーン優先度決定部
30 お気に入りシーン推薦理由生成部
31 お気に入りシーン並べ替え部
41 画像
42 場所情報
43 人物情報
44 事物情報
45 その他の情報
46 タイトル
47 URL
22 Movie playback section
23 Favorite scene storage
24 Scene information storage database
25 Scene information acquisition unit
26 Current location information acquisition unit
27 Peripheral information acquisition department
28 Peripheral information storage database
29 Favorite Scene Priority Determination Unit
30 Favorite Scene Recommendation Reason Generator
31 Favorite Scene Sorting Section
41 images
42 Location information
43 Personal information
44 Things Information
45 Other information
46 Title
47 URL

Claims (12)

ネットワークを通じて通信することが可能な移動端末であって、
表示部と、
前記表示部が表示したシーンの画像及びメタデータを含むシーン情報を保存する保存部と、
当該移動端末の位置を示す位置情報を利用して、該位置周辺の周辺情報を前記ネットワークを介して情報サーバから取得する周辺情報取得部と、
保存されているシーン情報から導出された単語ベクトルと、前記周辺情報から導出された単語ベクトルとの類似度を算出することで、該シーン情報が示すシーンの優先度を決定する優先度決定部と
を有し、前記表示部は、前記優先度が相対的に高いシーンの画像を表示する、移動端末。
A mobile terminal capable of communicating through a network,
A display unit;
A storage unit for storing scene information including scene images and metadata displayed by the display unit;
Using the location information indicating the location of the mobile terminal, the peripheral information acquisition unit that acquires the peripheral information around the location from the information server via the network;
A priority determining unit that determines the priority of the scene indicated by the scene information by calculating the similarity between the word vector derived from the stored scene information and the word vector derived from the peripheral information; And the display unit displays an image of a scene having a relatively high priority.
前記メタデータが、シーンに登場する場所、人、事物、音楽又は出来事の説明文を含む、請求項1記載の移動端末。   The mobile terminal according to claim 1, wherein the metadata includes a description of a place, person, thing, music, or event that appears in a scene. シーン情報から導出された前記単語ベクトルは、シーン情報のメタデータに所定の単語が含まれているか否かを判別することで導出されている、請求項1又は2に記載の移動端末。   The mobile terminal according to claim 1 or 2, wherein the word vector derived from scene information is derived by determining whether or not a predetermined word is included in metadata of scene information. 前記周辺情報から導出された前記単語ベクトルは、前記周辺情報に所定の単語が含まれているか否かを判別することで導出されている、請求項1ないし3の何れか1項に記載の移動端末。   The movement according to any one of claims 1 to 3, wherein the word vector derived from the peripheral information is derived by determining whether or not a predetermined word is included in the peripheral information. Terminal. 前記優先度決定部が、当該移動端末の位置と、前記シーン情報が示す位置との間の距離をさらに算出し、前記類似度及び前記距離により前記優先度を決定する、請求項1ないし4の何れか1項に記載の移動端末。   The priority determination unit further calculates a distance between the position of the mobile terminal and the position indicated by the scene information, and determines the priority based on the similarity and the distance. The mobile terminal according to any one of claims. 前記類似度が、単語ベクトル同士の内積及び単語ベクトル各々の大きさから導出される、請求項1ないし5の何れか1項に記載の移動端末。   The mobile terminal according to claim 1, wherein the similarity is derived from an inner product between word vectors and a size of each word vector. ネットワークを通じて通信することが可能な移動端末におけるリマインド方法であって、
前記移動端末の表示部が表示したシーンの画像及びメタデータを含むシーン情報を保存し、
前記移動端末の位置を示す位置情報を利用して、該位置周辺の周辺情報を前記ネットワークを介して情報サーバから取得し、
保存されているシーン情報から導出された単語ベクトルと、前記周辺情報から導出された単語ベクトルとの類似度を算出することで、該シーン情報が示すシーンの優先度を決定するステップ
を有し、前記表示部は、前記優先度が相対的に高いシーンの画像を表示する、移動端末におけるリマインド方法。
A reminding method in a mobile terminal capable of communicating through a network,
Storing scene information including images and metadata of the scene displayed by the display unit of the mobile terminal;
Using the location information indicating the location of the mobile terminal, obtaining peripheral information around the location from the information server via the network,
Determining the priority of the scene indicated by the scene information by calculating the similarity between the word vector derived from the stored scene information and the word vector derived from the peripheral information, The reminding method in a mobile terminal, wherein the display unit displays an image of a scene having a relatively high priority.
前記メタデータが、シーンに登場する場所、人、事物、音楽又は出来事の説明文を含む、請求項7記載のリマインド方法。   The reminding method according to claim 7, wherein the metadata includes a description of a place, person, thing, music, or event appearing in a scene. シーン情報から導出された前記単語ベクトルは、シーン情報のメタデータに所定の単語が含まれているか否かを判別することで導出されている、請求項7又は8に記載のリマインド方法。   The reminding method according to claim 7 or 8, wherein the word vector derived from scene information is derived by determining whether or not a predetermined word is included in metadata of scene information. 前記周辺情報から導出された前記単語ベクトルは、前記周辺情報に所定の単語が含まれているか否かを判別することで導出されている、請求項7ないし9の何れか1項に記載のリマインド方法。   The reminder according to any one of claims 7 to 9, wherein the word vector derived from the surrounding information is derived by determining whether or not a predetermined word is included in the surrounding information. Method. 前記優先度を決定する際、前記移動端末の位置と、前記シーン情報が示す位置との間の距離をさらに算出し、前記類似度及び前記距離により前記優先度を決定する、請求項7ないし10の何れか1項に記載のリマインド方法。   11. When determining the priority, the distance between the position of the mobile terminal and the position indicated by the scene information is further calculated, and the priority is determined based on the similarity and the distance. The remind method of any one of these. 前記類似度が、単語ベクトル同士の内積及び単語ベクトル各々の大きさから導出される、請求項7ないし11の何れか1項に記載のリマインド方法。   The reminding method according to any one of claims 7 to 11, wherein the similarity is derived from an inner product of word vectors and a size of each word vector.
JP2010191399A 2010-08-27 2010-08-27 Mobile terminal and remind method Active JP5461346B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010191399A JP5461346B2 (en) 2010-08-27 2010-08-27 Mobile terminal and remind method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010191399A JP5461346B2 (en) 2010-08-27 2010-08-27 Mobile terminal and remind method

Publications (2)

Publication Number Publication Date
JP2012049922A true JP2012049922A (en) 2012-03-08
JP5461346B2 JP5461346B2 (en) 2014-04-02

Family

ID=45904258

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010191399A Active JP5461346B2 (en) 2010-08-27 2010-08-27 Mobile terminal and remind method

Country Status (1)

Country Link
JP (1) JP5461346B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020095373A1 (en) * 2018-11-07 2020-05-14 三菱電機株式会社 Information processing device, information processing method, and information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09182159A (en) * 1995-12-27 1997-07-11 Tamura Electric Works Ltd Digital radio telephone system
JP2005354134A (en) * 2004-06-08 2005-12-22 Sony Corp Image management method and device, recording medium, and program
JP2010045436A (en) * 2008-08-08 2010-02-25 Olympus Imaging Corp Camera and photographing system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09182159A (en) * 1995-12-27 1997-07-11 Tamura Electric Works Ltd Digital radio telephone system
JP2005354134A (en) * 2004-06-08 2005-12-22 Sony Corp Image management method and device, recording medium, and program
JP2010045436A (en) * 2008-08-08 2010-02-25 Olympus Imaging Corp Camera and photographing system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020095373A1 (en) * 2018-11-07 2020-05-14 三菱電機株式会社 Information processing device, information processing method, and information processing program
KR20210052573A (en) * 2018-11-07 2021-05-10 미쓰비시덴키 가부시키가이샤 Information processing device, information processing method, and information processing program
CN112912866A (en) * 2018-11-07 2021-06-04 三菱电机株式会社 Information processing apparatus, information processing method, and information processing program
KR102386373B1 (en) 2018-11-07 2022-04-14 미쓰비시덴키 가부시키가이샤 Information processing apparatus, information processing method, and information processing program
CN112912866B (en) * 2018-11-07 2023-12-12 三菱电机株式会社 Information processing apparatus, information processing method, and recording medium

Also Published As

Publication number Publication date
JP5461346B2 (en) 2014-04-02

Similar Documents

Publication Publication Date Title
CN107251006B (en) Gallery of messages with shared interests
EP2960852B1 (en) Information processing device, information processing method, and program
JP2003504952A (en) Method and apparatus for linking a video segment to another video segment or source
US20140324858A1 (en) Information processing apparatus, keyword registration method, and program
CA2839877C (en) Audio presentation of condensed spatial contextual information
US20190221019A1 (en) Computer Readable Media, Information Processing Apparatus and Information Processing Method
JP5647500B2 (en) Content providing server and terminal device
WO2010131333A1 (en) Content search device, content search method, content search program, and recording medium
CN110020106A (en) A kind of recommended method, recommendation apparatus and the device for recommendation
CN113486212A (en) Search recommendation information generation and display method, device, equipment and storage medium
CN110475158B (en) Video learning material providing method and device, electronic equipment and readable medium
US9762687B2 (en) Continuity of content
US8768999B2 (en) System and method of acquiring contents
JP5461346B2 (en) Mobile terminal and remind method
CN111076738A (en) Navigation path planning method, planning device, storage medium and electronic equipment
JP4890534B2 (en) Video processing device, communication terminal, point information search device, video processing method, point information notification method, point information search method, video processing program, point information notification program, point information search program, and computer-readable recording medium
WO2019082606A1 (en) Content management device, content management system, and control method
JP2006127370A (en) Information providing device and information providing method
CN114996573A (en) Content item processing method, device, equipment and storage medium
WO2020158536A1 (en) Information processing system, information processing method, and information processing device
CN114428919A (en) Method, device, equipment and medium for searching places
JP2007179254A (en) Information presentation system, information presentation method, information presentation device
CN110285824B (en) Information providing apparatus and control method thereof
JP6737511B2 (en) Content distribution device, content distribution system, content distribution method and program
KR101461590B1 (en) Method for Providing Multimedia Contents based on Location

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140115

R150 Certificate of patent or registration of utility model

Ref document number: 5461346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250