JP5838791B2 - Program, image processing apparatus and image processing method - Google Patents

Program, image processing apparatus and image processing method Download PDF

Info

Publication number
JP5838791B2
JP5838791B2 JP2011282403A JP2011282403A JP5838791B2 JP 5838791 B2 JP5838791 B2 JP 5838791B2 JP 2011282403 A JP2011282403 A JP 2011282403A JP 2011282403 A JP2011282403 A JP 2011282403A JP 5838791 B2 JP5838791 B2 JP 5838791B2
Authority
JP
Japan
Prior art keywords
anchor
image
storage unit
frame
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011282403A
Other languages
Japanese (ja)
Other versions
JP2013134506A (en
Inventor
伸 十時
伸 十時
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011282403A priority Critical patent/JP5838791B2/en
Priority to US13/671,625 priority patent/US9380259B2/en
Priority to CN201210519494.5A priority patent/CN103219028B/en
Publication of JP2013134506A publication Critical patent/JP2013134506A/en
Application granted granted Critical
Publication of JP5838791B2 publication Critical patent/JP5838791B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、動画の対象物に対してアンカーを設定するプログラム、画像処理装置及び画像処理方法に関する。   The present invention relates to a program, an image processing apparatus, and an image processing method for setting an anchor for a moving object.

従来、動画を利用したハイパーメディア環境において、動画の対象物にアンカーを表示し、そのアンカーにリンクを結びつけ、動画上でアンカーを指定することで、リンク操作を行うことが知られている。以下では、対象物をオブジェクトともいう。   Conventionally, in a hypermedia environment using a moving image, it is known to perform a link operation by displaying an anchor on an object of the moving image, connecting a link to the anchor, and specifying the anchor on the moving image. Hereinafter, the object is also referred to as an object.

例えば、動画上の移動する任意の領域にアンカーを設定し、アンカー情報及びリンク情報を記憶し、動画及びアンカーの表示属性に基づいて動的にアンカーを表示する技術がある。   For example, there is a technique in which an anchor is set in an arbitrary area on a moving image, anchor information and link information are stored, and the anchor is dynamically displayed based on the display attribute of the moving image and the anchor.

特開平8−123816号公報JP-A-8-123816

ここで、動画中のオブジェクトに対してアンカーを設定する場合には、例えば、動画内の各フレームの中でエッジ抽出をすることでオブジェクトの形を抽出し、さらに、フレーム間誤差抽出を行ってオブジェクトの移動を抽出する方法が考えられる。アンカーとは、例えばハイパーリンクに設定される要素のことをいう。   Here, when setting an anchor for an object in a moving image, for example, the shape of the object is extracted by extracting an edge in each frame in the moving image, and further, an error between frames is extracted. A method of extracting the movement of the object can be considered. An anchor refers to an element set to a hyperlink, for example.

動画中で、アンカーを設定する対象となるオブジェクトが移動する場合、従来技術では、各フレームにおけるオブジェクトの位置座標を特定し、フレーム番号及びオブジェクトの位置座標によって、アンカーの位置を定義することになる。   When an object for which an anchor is to be set moves in a movie, in the conventional technology, the position coordinates of the object in each frame are specified, and the position of the anchor is defined by the frame number and the position coordinates of the object. .

一方で、オブジェクトに対して一度設定したアンカーを、編集する必要が生じる場合がある。例えば、エッジ抽出によりオブジェクトを抽出し、このオブジェクトの位置にアンカーを設定したとする。エッジ抽出の精度によっては、人の目から見た画像上のオブジェクトの位置または形状と、エッジ抽出によってコンピュータが認識したオブジェクトの位置または形状とがずれる場合がある。このような場合、人の目から見て、オブジェクト上にアンカーが重畳されるように、フレーム上のアンカーの位置を変更する作業が発生する。以下では、この作業を編集作業ともいう。   On the other hand, it may be necessary to edit an anchor once set for an object. For example, assume that an object is extracted by edge extraction, and an anchor is set at the position of the object. Depending on the accuracy of edge extraction, the position or shape of the object on the image viewed from the human eye may be different from the position or shape of the object recognized by the computer by edge extraction. In such a case, an operation for changing the position of the anchor on the frame occurs so that the anchor is superimposed on the object as viewed from the human eye. Hereinafter, this work is also referred to as editing work.

しかしながら、各フレームにおけるオブジェクトの位置座標を特定し、フレーム番号と位置座標とによってアンカーの位置が定義されているとすると、例えば、フレームの枚数分、アンカー位置の定義が存在し、アンカー位置に関するデータ量が多くなってしまう。   However, if the position coordinates of the object in each frame are specified and the anchor position is defined by the frame number and the position coordinates, for example, there are as many anchor position definitions as the number of frames. The amount will increase.

そして、各フレームに存在するアンカー位置の定義に対して、アンカー位置の編集作業を行うとすれば、フレーム枚数分の定義データのそれぞれに対して変更を行うことになり、編集者にとって非常に煩雑な処理となっていた。   If the anchor position editing operation is performed for the definition of the anchor position existing in each frame, the definition data corresponding to the number of frames is changed, which is very complicated for the editor. It was a difficult process.

そこで、開示の技術は、上記問題点に鑑みてなされたものであって、アンカーの編集を容易にしつつ、アンカー情報のデータ量を削減することができるプログラム、情報処理装置及び情報処理方法を提供することを目的とする。   Accordingly, the disclosed technology has been made in view of the above problems, and provides a program, an information processing apparatus, and an information processing method capable of reducing the data amount of anchor information while facilitating editing of an anchor. The purpose is to do.

開示の一態様におけるプログラムは、動画に含まれる画像内の対象物に対するアンカーの設定を受け付け、前記動画に含まれる所定画像内の前記アンカーが設定された対象物と、前記動画に含まれる他の画像内の該対象物との移動量が所定値以上であるか否かを判定し、前記所定値以上であると判定された場合に、判定対象の画像の識別子と、前記アンカーの位置情報とを記憶部に記憶する処理をコンピュータに実行させ、前記他の画像は、前記記憶部に対する記憶対象の中で最新の画像である場合、前記記憶する処理は、前記所定画像の識別子と、前記所定画像内のアンカーの位置情報とを前記記憶部に記憶するA program according to an aspect of the disclosure receives an anchor setting for an object in an image included in a moving image, the object in which the anchor in a predetermined image included in the moving image is set, and another included in the moving image It is determined whether or not the amount of movement with respect to the object in the image is equal to or greater than a predetermined value. When it is determined that the amount of movement is equal to or greater than the predetermined value, the identifier of the image to be determined and the position information of the anchor When the other image is the latest image among the objects to be stored in the storage unit, the storing process includes the identifier of the predetermined image and the predetermined image. The position information of the anchor in the image is stored in the storage unit .

開示の技術は、アンカーの編集を容易にしつつ、アンカー情報のデータ量を削減することができる。   The disclosed technology can reduce the data amount of anchor information while facilitating editing of the anchor.

実施例における情報処理装置の機能的構成の一例を示すブロック図。The block diagram which shows an example of a functional structure of the information processing apparatus in an Example. アンカー情報のデータ構造の一例を示す図。The figure which shows an example of the data structure of anchor information. アンカー情報の一例を示す図。The figure which shows an example of anchor information. アンカー位置の自動生成を説明するための図。The figure for demonstrating the automatic production | generation of an anchor position. アンカー位置の自動生成、編集例を説明するための図。The figure for demonstrating the automatic generation of an anchor position, and an example of an edit. アンカーの描画例を説明するための図。The figure for demonstrating the example of drawing of an anchor. アンカーの表示例を説明するための図。The figure for demonstrating the example of a display of an anchor. リンク先表示を説明するための図。The figure for demonstrating a link destination display. アンカー設定処理の一例を示すフローチャート。The flowchart which shows an example of an anchor setting process. アンカー情報の生成処理の一例を示すフローチャート。The flowchart which shows an example of the production | generation process of anchor information. 動画再生処理の一例を示すフローチャート。The flowchart which shows an example of a moving image reproduction process. 情報処理装置のハードウェアの一例を示すブロック図。The block diagram which shows an example of the hardware of information processing apparatus.

以下、実施例について、添付図面を参照しながら説明する。   Hereinafter, embodiments will be described with reference to the accompanying drawings.

[実施例]
<構成>
図1は、実施例における情報処理装置1の機能的構成の一例を示すブロック図である。情報処理装置1は、リンク先が設定されたアンカーを動画の対象物(オブジェクト)に設定する機能を有する。アンカーは、例えばリンク先を呼び出すアイコンである。以下では、このアイコンをリンクアイコンとも呼ぶ。
[Example]
<Configuration>
FIG. 1 is a block diagram illustrating an example of a functional configuration of the information processing apparatus 1 according to the embodiment. The information processing apparatus 1 has a function of setting an anchor for which a link destination is set as a moving object (object). An anchor is an icon for calling a link destination, for example. Below, this icon is also called a link icon.

情報処理装置1は、設定されたアンカーを編集する機能を有してもよい。情報処理装置1は、動画再生中にアンカーが押下又は指示された場合、アンカーに関連付けられてリンク先を表示又は再生する機能を有してもよい。   The information processing apparatus 1 may have a function of editing a set anchor. The information processing apparatus 1 may have a function of displaying or playing back a link destination in association with an anchor when the anchor is pressed or instructed during moving image playback.

図1に示す情報処理装置1は、アンカー情報生成部10、操作部11、リンク定義記憶部12、動画データ記憶部13、アンカー情報編集部14、再生制御部15、及び表示部16を有する。   The information processing apparatus 1 illustrated in FIG. 1 includes an anchor information generation unit 10, an operation unit 11, a link definition storage unit 12, a moving image data storage unit 13, an anchor information editing unit 14, a playback control unit 15, and a display unit 16.

アンカー情報生成部10は、はじめに、動画データ記憶部13から動画を読み出して取得し、アンカーを設定するフレームとアンカー位置の設定を受け付ける。アンカー情報生成部10は、その後のフレームにおいて、アンカーが設定されたオブジェクトを自動抽出し、アンカーをオブジェクトに追随させるための機能を有する。   First, the anchor information generation unit 10 reads and acquires a moving image from the moving image data storage unit 13, and receives the setting of the frame and anchor position for setting the anchor. The anchor information generation unit 10 has a function for automatically extracting an object in which an anchor is set in a subsequent frame and causing the anchor to follow the object.

アンカー情報生成部10は、オブジェクトを自動抽出した時、オブジェクト又はアンカーの移動量に応じて、アンカーの位置を記憶するか否かを判定する。これにより、アンカー情報を毎フレーム記憶しなくてもよくなるため、アンカー情報のデータ量を削減することができる。   When the object is automatically extracted, the anchor information generation unit 10 determines whether or not to store the position of the anchor according to the movement amount of the object or the anchor. As a result, the anchor information does not have to be stored every frame, so that the data amount of the anchor information can be reduced.

アンカー情報生成部10は、上記機能を実現するため、設定部111、抽出部112、及び判定部113を有する。設定部111は、動画に含まれる各フレームに対して、操作部11からアンカーを設定するフレームと、そのフレーム内のアンカーの位置とを受け付ける。   The anchor information generation unit 10 includes a setting unit 111, an extraction unit 112, and a determination unit 113 in order to realize the above functions. The setting unit 111 receives a frame for setting an anchor from the operation unit 11 and the position of the anchor in the frame for each frame included in the moving image.

アンカーの位置は、フレーム内の座標で表され、アンカー位置情報とも呼ぶ。設定部111は、受け付けたフレームを示す識別子と、アンカー位置情報とを抽出部112に出力する。フレームを示す識別子は、フレーム識別子とも呼び、例えば、フレーム番号や動画の先頭からの再生時間を示すタイムコードやタイムスタンプなどでもよい。   The position of the anchor is represented by coordinates in the frame and is also called anchor position information. The setting unit 111 outputs an identifier indicating the received frame and anchor position information to the extraction unit 112. An identifier indicating a frame is also called a frame identifier, and may be a frame number, a time code indicating a playback time from the beginning of a moving image, a time stamp, or the like.

抽出部112は、アンカーが設定されたフレームに対して、アンカーが設定された位置周辺で、画像認識技術を用いて、オブジェクトの領域を自動抽出する。例えば、抽出部112は、エッジ抽出を行って認識したオブジェクト領域の座標を自動抽出する。オブジェクトの座標は、例えばオブジェクト領域の中心座標である。   The extraction unit 112 automatically extracts a region of an object using an image recognition technique around the position where the anchor is set with respect to the frame where the anchor is set. For example, the extraction unit 112 automatically extracts the coordinates of the object region recognized by performing edge extraction. The coordinates of the object are, for example, the center coordinates of the object area.

抽出部112は、後続の各フレームで、抽出されたオブジェクトの追跡を行い、認識されたオブジェクト座標を判定部113に出力する。   The extraction unit 112 tracks the extracted object in each subsequent frame, and outputs the recognized object coordinates to the determination unit 113.

判定部113は、認識されたオブジェクトが、他のフレーム内のこのオブジェクトから所定値以上移動しているか否かを判定する。例えば、判定部113は、現フレームのオブジェクトと直前のフレームのオブジェクトとの移動量が所定値以上であるか否かを判定する。これにより、判定部113は、短時間でのオブジェクトの移動量が大きい場合を判定することができる。   The determination unit 113 determines whether or not the recognized object has moved by a predetermined value or more from this object in another frame. For example, the determination unit 113 determines whether or not the amount of movement between the object of the current frame and the object of the previous frame is greater than or equal to a predetermined value. Thereby, the determination part 113 can determine the case where the movement amount of the object in a short time is large.

移動量は、例えばフレーム間のオブジェクト座標の差分や、フレーム間誤差抽出処理を行ったオブジェクト領域の動きである。また、移動量は、アンカーの中心座標の移動量であってもよい。   The amount of movement is, for example, a difference in object coordinates between frames or a movement of an object region that has undergone an inter-frame error extraction process. The movement amount may be the movement amount of the center coordinates of the anchor.

所定値は、例えば、抽出部112で抽出されたオブジェクト一個分のサイズである。また、所定値は、アンカーのサイズであってもよく、実験などにより適切な値に設定されていればよい。   The predetermined value is, for example, the size of one object extracted by the extraction unit 112. Further, the predetermined value may be the size of the anchor, and may be set to an appropriate value through experiments or the like.

また、判定部113は、現フレームのオブジェクトと、後述するリンク定義記憶部12に記憶されている、又は記憶対象の最新のフレームのオブジェクトとの移動量が、所定値以上であるか否かを判定する。これにより、判定部113は、オブジェクトが少しずつ移動した結果、判定基準の位置から所定値以上移動した場合を判定することができる。   Further, the determination unit 113 determines whether or not the movement amount between the object of the current frame and the object of the latest frame stored or stored in the link definition storage unit 12 described later is a predetermined value or more. judge. As a result, the determination unit 113 can determine a case where the object moves little by little as a result of moving from the determination reference position by a predetermined value or more.

リンク定義記憶部12に記憶されている、又は記憶対象の最新のフレームとは、現フレームより前のフレームで、現フレームと一番近いフレームをいう。   The latest frame stored or stored in the link definition storage unit 12 is a frame before the current frame and closest to the current frame.

また、判定部113は、オブジェクトの移動量が所定値未満であることを示す否定の判定結果が所定時間以上続いたか否かを判定してもよい。また、判定部113は、最終フレーム又はユーザによりアンカーが設定された最初のフレームであるか否かを判定してもよい。最終フレームとは、アンカーが設定された対象物が表示されている最後のフレーム又は動画の最終フレームのいずれかを表す。   The determination unit 113 may determine whether a negative determination result indicating that the amount of movement of the object is less than a predetermined value has continued for a predetermined time or more. Further, the determination unit 113 may determine whether it is the last frame or the first frame in which the anchor is set by the user. The final frame represents either the last frame in which the object to which the anchor is set is displayed or the final frame of the moving image.

判定部113は、生成部114を有する。生成部114は、判定部113で所定値以上であると判定された場合に、判定対象のフレーム識別子と、アンカー位置情報とを生成し、リンク定義記憶部12に記憶する。アンカー位置情報は、例えば、抽出されたオブジェクトの中心座標とする。   The determination unit 113 includes a generation unit 114. When the determination unit 113 determines that the value is equal to or greater than the predetermined value, the generation unit 114 generates a determination target frame identifier and anchor position information, and stores them in the link definition storage unit 12. The anchor position information is, for example, the center coordinates of the extracted object.

生成部114は、現フレームと直前のフレームとが判定対象である場合、現フレームのフレーム識別子と現フレームのアンカー位置情報とを対応付けて、直前フレームのフレーム識別子と直前フレームのアンカー位置情報とを対応付けてリンク定義記憶部12に記憶する。   When the current frame and the immediately preceding frame are to be determined, the generation unit 114 associates the frame identifier of the current frame with the anchor position information of the current frame, and sets the frame identifier of the immediately preceding frame, the anchor position information of the immediately preceding frame, Are stored in the link definition storage unit 12 in association with each other.

生成部114は、現フレームとリンク定義記憶部12に記憶されている最新のフレームとが判定対象である場合、現フレームのフレーム識別子と現フレームのアンカー位置情報とを対応付けてリンク定義記憶部12に記憶する。以下では、現フレームのフレーム識別子とアンカー位置情報とを含む情報をアンカー情報とも呼ぶ。生成部114は、判定部113内に含まれる構成で説明したが、判定部113とは別の構成であってもよい。   When the current frame and the latest frame stored in the link definition storage unit 12 are to be determined, the generation unit 114 associates the frame identifier of the current frame with the anchor position information of the current frame and associates the link definition storage unit 12 to store. Hereinafter, information including the frame identifier of the current frame and anchor position information is also referred to as anchor information. Although the generation unit 114 has been described with the configuration included in the determination unit 113, the generation unit 114 may have a configuration different from that of the determination unit 113.

生成部114は、移動量が所定値未満の場合が所定時間以上である場合、又は現フレームが最終フレーム、又はアンカーが設定された最初のフレームである場合、現フレームのフレーム識別子とアンカー位置情報とを対応付けてリンク定義記憶部12に記憶する。   When the movement amount is less than the predetermined value for a predetermined time or more, or when the current frame is the last frame or the first frame in which the anchor is set, the generation unit 114 determines the frame identifier and anchor position information of the current frame. Are stored in the link definition storage unit 12 in association with each other.

これにより、アンカー情報生成部10は、アンカーを設定する場合に、フレーム毎にアンカー情報を定義しなくてもよい。また、アンカー情報生成部10は、アンカーが設定されたオブジェクトの移動量が大きいフレームに対して、アンカー情報を記憶すればよいので、アンカー情報のデータ量を削減することができる。   Thereby, the anchor information generation part 10 does not need to define anchor information for every flame | frame, when setting an anchor. Further, since the anchor information generation unit 10 only needs to store the anchor information for a frame in which the movement amount of the object for which the anchor is set is large, it is possible to reduce the data amount of the anchor information.

操作部11は、GUI(Graphical User Interface)操作機能を有し、アンカー位置の設定や、アンカーに関連付けるリンク先の設定や、アンカー位置の編集や、動画再生の指示、アンカーの選択などを行う。操作部11は、ユーザからの上記操作があった場合、その操作内容を各部に通知する。   The operation unit 11 has a GUI (Graphical User Interface) operation function, and performs setting of an anchor position, setting of a link destination to be associated with the anchor, editing of the anchor position, instruction for reproducing a moving image, selection of an anchor, and the like. When there is an operation from the user, the operation unit 11 notifies the operation content to each unit.

リンク定義記憶部12は、アンカー情報生成部10で生成されたアンカー情報を記憶する。アンカー情報は、はじめにユーザにより設定されたアンカー位置情報と、そのフレーム識別子も含む。また、アンカー情報は、アンカーに関連付けられたリンク先の情報なども含む。アンカー情報については、図2を用いて後述する。   The link definition storage unit 12 stores the anchor information generated by the anchor information generation unit 10. The anchor information includes anchor position information initially set by the user and its frame identifier. The anchor information also includes information on the link destination associated with the anchor. The anchor information will be described later with reference to FIG.

動画データ記憶部13は、動画データを記憶する。動画データは、例えば、リンク先が関連付けられたアンカーを設定するためのコンテンツである。動画データとして、例えば、携帯端末の操作マニュアルや、自家用車の点検マニュアルなどがある。   The moving image data storage unit 13 stores moving image data. The moving image data is, for example, content for setting an anchor associated with a link destination. As moving image data, for example, there are an operation manual for a portable terminal, an inspection manual for a private car, and the like.

リンク定義記憶部12と動画データ記憶部13とは、別の記憶部として説明したが、同じ記憶装置であってもよい。なお、リンク定義記憶部12、動画データ記憶部13は、例えば、VRAM(Video Random Access Memory)を始めとするRAM(Random Access Memory)、ROM(Read Only Memory)やフラッシュメモリ(flash memory)などの半導体メモリ素子が挙げられる。なお、リンク定義記憶部12、動画データ記憶部13は、ハードディスク、光ディスクなどの記憶装置を適用してもかまわない。   Although the link definition storage unit 12 and the moving image data storage unit 13 have been described as separate storage units, they may be the same storage device. The link definition storage unit 12 and the moving image data storage unit 13 include, for example, a RAM (Random Access Memory) including a VRAM (Video Random Access Memory), a ROM (Read Only Memory), a flash memory (flash memory), and the like. A semiconductor memory device is mentioned. Note that a storage device such as a hard disk or an optical disk may be applied to the link definition storage unit 12 and the moving image data storage unit 13.

アンカー情報編集部14は、動画に設定されたアンカーの位置情報などを編集する。アンカー情報生成部10では、アンカー位置情報を自動で生成するため、実際の動画上のオブジェクトとは位置がずれる場合がある。よって、このような場合に、編集者は、アンカー位置を編集する作業が発生する。アンカー情報編集部14は、アンカー情報の編集作業を容易にする機能を有する。   The anchor information editing unit 14 edits anchor position information set in the moving image. Since the anchor information generation unit 10 automatically generates anchor position information, the position may deviate from the actual object on the moving image. Therefore, in such a case, the editor needs to edit the anchor position. The anchor information editing unit 14 has a function of facilitating editing of anchor information.

アンカー情報編集部14は、編集部141、及び変更部142を有する。編集部141は、動画データ記憶部13に記憶された動画と、リンク定義記憶部12に記憶されたアンカー情報とを用いて、アンカーが表示される動画を再生する。   The anchor information editing unit 14 includes an editing unit 141 and a changing unit 142. The editing unit 141 uses the moving image stored in the moving image data storage unit 13 and the anchor information stored in the link definition storage unit 12 to reproduce the moving image on which the anchor is displayed.

このとき、編集部141は、アンカー位置やリンク先を編集可能な編集画面を表示部16に表示制御する。編集部141は、表示部16に表示された編集画面を用いてアンカーが編集された場合、操作部11からアンカーに関する編集操作を受け付ける。   At this time, the editing unit 141 controls the display unit 16 to display an editing screen in which the anchor position and the link destination can be edited. When the anchor is edited using the editing screen displayed on the display unit 16, the editing unit 141 receives an editing operation related to the anchor from the operation unit 11.

例えば、編集部141は、操作部11からアンカー位置の変更や、アンカーに関連付けられたリンク先の変更などを受け付ける。編集部141は、操作部11から受け付けたユーザ操作の内容、例えば、編集されたフレームのフレーム識別子や、変更されたアンカー位置情報を変更部142に通知する。   For example, the editing unit 141 receives a change of the anchor position, a change of a link destination associated with the anchor, or the like from the operation unit 11. The editing unit 141 notifies the changing unit 142 of the contents of the user operation received from the operation unit 11, for example, the frame identifier of the edited frame and the changed anchor position information.

変更部142は、編集部141から取得した操作内容に基づいて、リンク定義記憶部12に記憶されているアンカー情報を変更する。例えば、操作内容として、フレーム識別子、編集されたアンカー位置情報を含むとする。   The changing unit 142 changes the anchor information stored in the link definition storage unit 12 based on the operation content acquired from the editing unit 141. For example, it is assumed that the operation content includes a frame identifier and edited anchor position information.

この場合、変更部142は、リンク定義記憶部12に記憶されているアンカー情報から、取得した操作内容に含まれるフレーム識別子と一致するフレーム識別子を検索する。変更部142は、一致したフレーム識別子に関連付けられたアンカー位置情報を、編集されたアンカー位置情報に変更する。   In this case, the changing unit 142 searches the anchor information stored in the link definition storage unit 12 for a frame identifier that matches the frame identifier included in the acquired operation content. The changing unit 142 changes the anchor position information associated with the matched frame identifier to the edited anchor position information.

これにより、編集作業は、リンク定義記憶部12に記憶されているフレームのみで済むため、編集が容易になる。   As a result, the editing work only needs to be performed on the frames stored in the link definition storage unit 12, so that editing is facilitated.

再生制御部15は、動画データ記憶部13から動画データを読み出して取得し、また、リンク定義記憶部12からアンカー情報を読み出して取得し、アンカーを重畳表示した動画を表示部16に再生する制御する。   The reproduction control unit 15 reads out and acquires moving image data from the moving image data storage unit 13, reads out and acquires anchor information from the link definition storage unit 12, and reproduces the moving image on which the anchor is superimposed and displayed on the display unit 16. To do.

再生制御部15は、描画部151及びリンクコンテンツ再生部152を有する。描画部151は、アンカー情報に記憶されたフレーム識別子が示すフレームを表示部16に表示するときに、アンカー位置情報が示す位置にアンカーを描画し、動画上に重畳する。   The playback control unit 15 includes a drawing unit 151 and a link content playback unit 152. When the display unit 16 displays the frame indicated by the frame identifier stored in the anchor information on the display unit 16, the drawing unit 151 draws the anchor at the position indicated by the anchor position information and superimposes the anchor on the moving image.

描画部151は、リンク定義記憶部12に記憶されたフレーム識別子が示すフレーム以外のフレームが表示されるとき、補間演算を行ってアンカーを連続表示する。補間演算は、リンク定義記憶部12に記憶されたフレームのうち、表示対象のフレームの前後に位置する2つのフレームに対応するそれぞれのアンカー位置情報を線形補間する。描画部151は、線形補間されたアンカーを例えばアニメーション描画する。   When a frame other than the frame indicated by the frame identifier stored in the link definition storage unit 12 is displayed, the drawing unit 151 performs interpolation calculation and continuously displays the anchor. The interpolation calculation linearly interpolates the respective anchor position information corresponding to two frames located before and after the display target frame among the frames stored in the link definition storage unit 12. The drawing unit 151 draws, for example, an animation of the linearly interpolated anchor.

これにより、描画部151は、表示されるフレーム毎にアンカー全画素を再描画しなくてすみ、補間演算されたアンカーを表示するので、必要最小限の画素の再描画ですむ。必要最小限の画素とは、変更部分の画素をいう。よって、アンカー全画素で再描画する場合に比べてアンカー画像のちらつきを防止することができる。   As a result, the drawing unit 151 does not need to redraw all the anchor pixels for each frame to be displayed, and displays the anchor subjected to the interpolation calculation. Therefore, it is possible to redraw the minimum necessary pixels. The minimum necessary pixel means a pixel at a changed portion. Therefore, the flickering of the anchor image can be prevented as compared with the case of redrawing with all the anchor pixels.

リンクコンテンツ再生部152は、アンカーの押下によりアンカーが選択されたことを操作部11から通知されると、アンカーに関連付けられたリンク先に移動し、例えば動画ハイパーリンクコンテンツを表示部16に再生するよう制御する。   When the link content playback unit 152 is notified from the operation unit 11 that the anchor has been selected by pressing the anchor, the link content playback unit 152 moves to the link destination associated with the anchor, and plays back, for example, the video hyperlink content on the display unit 16. Control as follows.

なお、アンカー情報生成部10、アンカー情報編集部14、及び再生制御部15には、各種の集積回路や電子回路を採用できる。例えば、集積回路としては、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)が挙げられる。また、電子回路としては、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などが挙げられる。   Note that various integrated circuits and electronic circuits can be employed for the anchor information generation unit 10, the anchor information editing unit 14, and the reproduction control unit 15. For example, examples of the integrated circuit include ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array). Examples of the electronic circuit include a central processing unit (CPU) and a micro processing unit (MPU).

<アンカー情報>
次に、リンク定義記憶部12に記憶されるアンカー情報のデータ構造について説明する。図2は、アンカー情報のデータ構造の一例を示す図である。図2に示すように、アンカー情報は、アンカー識別名(name)、アンカー種別(type)、アンカー領域(size)、リンク先情報(link)、アンカーに関するデータ(data)を示す動画データとの同期用に用いるフレーム位置又は経過時間(time)、アンカーの画面上の座標を示すアンカー位置情報(px,py)を有する。
<Anchor information>
Next, the data structure of anchor information stored in the link definition storage unit 12 will be described. FIG. 2 is a diagram illustrating an example of a data structure of anchor information. As shown in FIG. 2, the anchor information is synchronized with the moving image data indicating the anchor identification name (name), the anchor type (type), the anchor area (size), the link destination information (link), and the data (data) related to the anchor. Frame position or elapsed time (time), and anchor position information (px, py) indicating the coordinates of the anchor on the screen.

アンカー種別は、アイコンやリンク種類などを示す。アンカー領域は、クリック範囲のサイズを示す。画面上の座標は、動画オリジナルサイズを基準にする。   The anchor type indicates an icon or a link type. The anchor area indicates the size of the click range. The coordinates on the screen are based on the original video size.

データ(data)は、階層構造になっており、複数の「time」、「(px,py)」を有することができる。なお、フレーム位置又は経過時間は、フレーム番号などの動画内のフレームを識別できる値であればいずれでもよい。   The data (data) has a hierarchical structure and can have a plurality of “time” and “(px, py)”. The frame position or the elapsed time may be any value that can identify a frame in the moving image, such as a frame number.

次に、アンカー情報の具体例について説明する。図3は、アンカー情報の一例を示す図である。図3に示す例は、アンカー情報をXML(Extensible Markup Language)で実装した例である。   Next, a specific example of anchor information will be described. FIG. 3 is a diagram illustrating an example of anchor information. The example shown in FIG. 3 is an example in which anchor information is implemented in XML (Extensible Markup Language).

例えば、アンカー識別名は「sampleA」であり、アンカー種別は「LINK」であり、アンカー領域は「60」であり、リンク先情報は「nextset」である。また、図3に示す例では、フレーム識別子とアンカー位置情報とが4つ保持されている。これらのフレーム識別子とアンカー位置情報とは、アンカー情報生成部10により生成された情報である。   For example, the anchor identification name is “sampleA”, the anchor type is “LINK”, the anchor area is “60”, and the link destination information is “nextset”. In the example shown in FIG. 3, four frame identifiers and anchor position information are held. These frame identifiers and anchor position information are information generated by the anchor information generation unit 10.

<アンカー位置情報生成、編集>
次に、アンカー位置の自動生成について具体的に説明する。図4は、アンカー位置の自動生成を説明するための図である。図4に示す例では、フレームt11〜t14が順番に表示されるとする。また、t11のフレームにおいて、ユーザによりアンカーを設定するオブジェクト(対象物)を指定されたとする。
<Generation and editing of anchor position information>
Next, the automatic generation of anchor positions will be specifically described. FIG. 4 is a diagram for explaining automatic generation of anchor positions. In the example illustrated in FIG. 4, frames t11 to t14 are displayed in order. Further, it is assumed that an object (target object) for setting an anchor is designated by the user in the frame at t11.

このとき、アンカー情報生成部10は、指定されたオブジェクト周辺をエッジ抽出し、オブジェクト領域を抽出する。アンカー情報生成部10は、抽出されたオブジェクト領域の中心座標をアンカー位置情報とし、このアンカー位置情報に対応付けてフレームt11の識別子(例えばタイムコード)をリンク定義記憶部12に記憶する。   At this time, the anchor information generation unit 10 extracts an edge around the designated object and extracts an object region. The anchor information generation unit 10 uses the center coordinates of the extracted object area as anchor position information, and stores the identifier (for example, time code) of the frame t11 in the link definition storage unit 12 in association with the anchor position information.

次に、アンカー情報生成部10(抽出部112)は、t12のフレームにおけるオブジェクトを追跡し、t11のフレームからの移動量をフレーム間誤差抽出処理などで求める。アンカー情報生成部10(判定部113)は、移動量が所定値以上であるか否か判定し、ここでは所定値未満であると判定する。所定値は、ここではオブジェクトサイズとする。   Next, the anchor information generation unit 10 (extraction unit 112) tracks the object in the frame at t12, and obtains the movement amount from the frame at t11 by an inter-frame error extraction process or the like. The anchor information generation unit 10 (determination unit 113) determines whether or not the movement amount is greater than or equal to a predetermined value, and here determines that it is less than the predetermined value. Here, the predetermined value is the object size.

次に、アンカー情報生成部10(抽出部112)は、t13のフレームにおけるオブジェクトを追跡し、t12のフレームからの移動量を求める。アンカー情報生成部10(判定部113)は、移動量が所定値以上であるか否かを判定し、ここでは所定値以上であると判定する。   Next, the anchor information generation unit 10 (extraction unit 112) tracks the object in the frame at t13 and obtains the movement amount from the frame at t12. The anchor information generation unit 10 (determination unit 113) determines whether or not the movement amount is greater than or equal to a predetermined value, and here determines that it is greater than or equal to the predetermined value.

アンカー情報生成部10(生成部114)は、t12及びt13のフレーム識別子と、t12及びt13のフレームのアンカー位置情報とをリンク定義記憶部12に記憶する。ここでのフレーム識別子は、例えばタイムコードとし、アンカー位置情報は、例えばオブジェクトの中心座標とする。   The anchor information generation unit 10 (generation unit 114) stores the frame identifiers of t12 and t13 and the anchor position information of the frames of t12 and t13 in the link definition storage unit 12. The frame identifier here is, for example, a time code, and the anchor position information is, for example, the center coordinates of the object.

次に、アンカー情報生成部10(抽出部112)は、t14のフレームにおけるオブジェクトを追跡し、t13のフレームからの移動量を求める。アンカー情報生成部10(判定部113)は、移動量が所定値以上であるか否かを判定し、ここでは所定値以上であると判定する。アンカー情報生成部10(生成部114)は、t13のフレーム識別子とアンカー位置情報とはリンク定義記憶部12に既に記憶されているため、t14のフレーム識別子と、t14のフレームのアンカー位置情報とをリンク定義記憶部12に記憶する。   Next, the anchor information generation unit 10 (extraction unit 112) tracks the object in the frame at t14 and obtains the movement amount from the frame at t13. The anchor information generation unit 10 (determination unit 113) determines whether or not the movement amount is greater than or equal to a predetermined value, and here determines that it is greater than or equal to the predetermined value. Since the frame identifier and anchor position information of t13 are already stored in the link definition storage unit 12, the anchor information generation unit 10 (generation unit 114) obtains the frame identifier of t14 and the anchor position information of the frame of t14. Store in the link definition storage unit 12.

これにより、アンカーを設定したフレームの後の全てのフレームでアンカーを定義しなくてもよいため、アンカー情報のデータ量を削減することができる。   Thereby, since it is not necessary to define an anchor in all the frames after the frame in which the anchor is set, the data amount of the anchor information can be reduced.

次に、携帯端末の電池パックをオブジェクトとした具体例について説明する。図5は、アンカー位置の自動生成、編集例を説明するための図である。図5に示す例は、携帯端末の電池パックをオブジェクトに設定した場合の例である。   Next, a specific example using the battery pack of the portable terminal as an object will be described. FIG. 5 is a diagram for explaining an example of automatic generation and editing of anchor positions. The example shown in FIG. 5 is an example when the battery pack of the mobile terminal is set as an object.

アンカー情報生成部10(設定部111)は、動画データ記憶部13から対象動画を読み込んで取得する。このとき、表示される動画の開始フレームが画面d11内部の画像とする。   The anchor information generation unit 10 (setting unit 111) reads and acquires the target moving image from the moving image data storage unit 13. At this time, the start frame of the displayed moving image is the image inside the screen d11.

次に、画面d12において、ユーザが、アンカーan12を電池パックの位置に設定したとする。これは、例えば、リンクボタンを押下することでアンカーan12が画面d12に表示され、このアンカーan12の位置を移動することで設定可能である。   Next, it is assumed that the user sets the anchor an12 at the position of the battery pack on the screen d12. This can be set by, for example, pressing the link button to display the anchor an12 on the screen d12 and moving the position of the anchor an12.

はじめにアンカーが設定されると、アンカー情報生成部10は、このアンカーが設定されたオブジェクトを追跡することで、オブジェクトの移動量が大きいアンカー位置を自動生成することができる。   When an anchor is set first, the anchor information generation unit 10 can automatically generate an anchor position where the amount of movement of the object is large by tracking the object where the anchor is set.

画面d13は、自動生成されたアンカー位置情報をプレビュー再生して確認する画面である。   The screen d13 is a screen for confirming the automatically generated anchor position information by preview reproduction.

画面d14は、自動生成されたアンカー位置を編集する画面である。ユーザは、位置調整を行うフレームをコマ送りなどで特定し、そのフレームに表示されているアンカーan14をドラッグ操作などで所望の位置に移動する。   The screen d14 is a screen for editing the automatically generated anchor position. The user specifies a frame for position adjustment by frame advance or the like, and moves the anchor an14 displayed on the frame to a desired position by a drag operation or the like.

これにより、編集者は、リンク定義記憶部12に記憶されたフレーム識別子が示すフレームのアンカー位置情報を確認すればよく、全てのフレームでアンカーの位置確認などをしなくてすむ。よって、編集作業が容易になる。   Thus, the editor only needs to confirm the anchor position information of the frame indicated by the frame identifier stored in the link definition storage unit 12, and does not need to confirm the anchor position in all the frames. Therefore, editing work becomes easy.

<アンカー描画、動画再生>
次に、動画とアンカーの描画構造について説明する。図6は、アンカーの描画例を説明するための図である。図6に示す例では、動画再生用のレイヤーにアンカー描画用のレイヤーを重畳する。この構造により、アンカーを再生中の動画内のオブジェクトに重畳することができるようになる。
<Anchor drawing, video playback>
Next, a drawing structure of a moving image and an anchor will be described. FIG. 6 is a diagram for explaining an anchor drawing example. In the example shown in FIG. 6, the anchor drawing layer is superimposed on the moving image playback layer. With this structure, the anchor can be superimposed on the object in the moving image being reproduced.

図7は、アンカーの表示例を説明するための図である。図7に示す例では、フレームt21、t23、t24、t28でアンカー情報がリンク定義記憶部12に記憶されている。描画部151は、リンク定義記憶部12に記憶されているフレーム識別子が示すフレームに対しては、アンカー位置情報が示す位置にアンカーを描画する。   FIG. 7 is a diagram for explaining a display example of an anchor. In the example shown in FIG. 7, anchor information is stored in the link definition storage unit 12 at frames t21, t23, t24, and t28. For the frame indicated by the frame identifier stored in the link definition storage unit 12, the drawing unit 151 draws an anchor at the position indicated by the anchor position information.

描画部151は、リンク定義記憶部12に記憶されているフレーム識別子が示すフレーム以外のフレームに対しては、描画されるアンカーの位置に基づいて補間演算することで、アンカーを例えばアニメーション描画する。   For the frames other than the frame indicated by the frame identifier stored in the link definition storage unit 12, the drawing unit 151 draws an anchor, for example, by performing an interpolation operation based on the position of the drawn anchor.

例えば、フレームt22のアンカーは、フレームt21のアンカー位置と、フレームt23のアンカー位置との中間に表示される。また、フレームt25〜t27のアンカーは、フレームt24のアンカー位置と、フレームt28のアンカー位置との補間演算により求められた位置に表示される。   For example, the anchor of the frame t22 is displayed between the anchor position of the frame t21 and the anchor position of the frame t23. In addition, the anchors of the frames t25 to t27 are displayed at positions obtained by interpolation between the anchor position of the frame t24 and the anchor position of the frame t28.

なお、図7に示すフレームt21、t23、t24、t28に表示されるアンカーが編集対象となる。なお、一般的な技術では、フレームt21〜t28のアンカー位置情報が記憶され、フレームt21〜t28のアンカーが編集対象となる。   Note that the anchors displayed in frames t21, t23, t24, and t28 shown in FIG. 7 are to be edited. In the general technique, the anchor position information of the frames t21 to t28 is stored, and the anchors of the frames t21 to t28 are to be edited.

これにより、アンカー描画は、フレーム毎にアンカーの全画素を書き直す再描画ではなく、座標移動のアニメーションによる描画方法を適用できるため、アンカーについてちらつきの無いスムーズな表示が可能となる。   As a result, the anchor drawing can be applied with a drawing method based on an animation of coordinate movement instead of redrawing all the pixels of the anchor for each frame, so that the anchor can be smoothly displayed without flickering.

次に、携帯端末のmicroSDカードをオブジェクトとした具体例について説明する。図8は、リンク先表示を説明するための図である。図8に示す例は、携帯端末のmicroSDカードを取り付ける操作を説明する動画の例である。また、図8に示す例では、microSDカードにアンカーが設定されている。   Next, a specific example using a microSD card of a mobile terminal as an object will be described. FIG. 8 is a diagram for explaining the link destination display. The example shown in FIG. 8 is an example of a moving image for explaining an operation of attaching a microSD card of a mobile terminal. In the example shown in FIG. 8, an anchor is set in the microSD card.

画面d21は、microSDカードを取り付ける携帯端末を表示する画面である。再生制御部15は、対象動画を動画データ記憶部13から読み込み、アンカー情報をリンク定義記憶部12から読み込んで、画面d21の画像を再生する。このとき、画面d21には、アンカーが設定されていない。   The screen d21 is a screen that displays a mobile terminal to which a microSD card is attached. The reproduction control unit 15 reads the target moving image from the moving image data storage unit 13, reads the anchor information from the link definition storage unit 12, and reproduces the image on the screen d21. At this time, no anchor is set on the screen d21.

画面d22は、microSDカードを持っている手が表示され、このmicroSDカードにアンカーが重畳して表示されている画面である。描画部151は、アンカー情報に含まれるフレーム識別子が示すフレームが再生される場合、そのフレームにアンカーを描画する。アンカーが描画された画面が、画面d22である。   The screen d22 is a screen on which a hand holding a microSD card is displayed and an anchor is superimposed on the microSD card. When the frame indicated by the frame identifier included in the anchor information is reproduced, the drawing unit 151 draws the anchor on the frame. The screen on which the anchor is drawn is the screen d22.

画面d23は、microSDカードが携帯端末に取り付けられている画面である。このとき、画面d23の画像内にあるアンカーan23が選択されたとする。なお、アンカーan23は、動画再生中はmicroSDに追随して描画される。   The screen d23 is a screen in which the microSD card is attached to the mobile terminal. At this time, it is assumed that the anchor an23 in the image on the screen d23 is selected. The anchor an23 is drawn following the microSD during moving image reproduction.

このとき、アンカー情報が記憶されていないフレームに対しては、補間演算(例えば座標の直線補間)により、アンカーが連続表示される。アンカーの選択は、マウスによるクリックや、タッチパネルでの押下などで検知できる。   At this time, for the frames in which the anchor information is not stored, the anchors are continuously displayed by interpolation calculation (for example, linear interpolation of coordinates). Anchor selection can be detected by clicking with the mouse or pressing on the touch panel.

画面d24は、アンカーに関連付けられたリンク先の映像の一フレームが表示された画面である。リンクコンテンツ再生部152は、アンカーan23が選択されたことを通知されると、アンカー情報に含まれるリンク先情報にリンクし、リンク先の映像を再生する。画面d24では、microSDの取り付け位置が拡大表示されている。   The screen d24 is a screen on which one frame of the linked video associated with the anchor is displayed. When notified that the anchor an23 has been selected, the link content playback unit 152 links to the link destination information included in the anchor information, and plays back the link destination video. On the screen d24, the attachment position of the microSD is enlarged and displayed.

これにより、アンカー情報が記憶されていないフレームに対しても、アンカーを連続表示することができ、アンカーが選択された場合には、リンク先に移動してリンクされた映像を再生することができる。   As a result, the anchor can be continuously displayed even for frames in which the anchor information is not stored, and when the anchor is selected, the linked video can be reproduced by moving to the link destination. .

<動作>
次に、情報処理装置1の動作について説明する。図9は、アンカー設定処理の一例を示すフローチャートである。図9に示すステップS101で、アンカー情報生成部10は、動画データ記憶部13から対象動画を読み込んで取得する。ここで、アンカー情報生成部10は、対象動画を再生又はコマ送りして、アンカーを設定するオブジェクトの指定を待つ。
<Operation>
Next, the operation of the information processing apparatus 1 will be described. FIG. 9 is a flowchart illustrating an example of the anchor setting process. In step S101 illustrated in FIG. 9, the anchor information generation unit 10 reads and acquires the target moving image from the moving image data storage unit 13. Here, the anchor information generation unit 10 plays or frames the target moving image and waits for the designation of the object for setting the anchor.

ステップS102で、設定部111は、ユーザがアンカーを設定したいオブジェクトの指定を、操作部11から受け付ける。このとき、設定部111は、オブジェクトの位置座標やアンカーを設定した開始フレームを特定する。オブジェクトの位置座標は、例えば、図5に示す画面d12のような指定の場合は、アンカーの中心座標とする。   In step S <b> 102, the setting unit 111 receives from the operation unit 11 designation of an object for which the user wants to set an anchor. At this time, the setting unit 111 identifies the start frame in which the position coordinates and anchors of the object are set. For example, in the case of designation as in the screen d12 shown in FIG. 5, the position coordinates of the object are the center coordinates of the anchor.

ステップS103で、抽出部112は、動画内の開始フレーム以降のフレーム毎に、画像認識を行ってオブジェクト座標を抽出する。例えば、抽出部112は、オブジェクト領域をエッジ抽出などにより抽出し、そのオブジェクト領域の中心座標を、オブジェクト座標とする。   In step S103, the extraction unit 112 performs image recognition and extracts object coordinates for each frame after the start frame in the moving image. For example, the extraction unit 112 extracts an object area by edge extraction or the like, and sets the center coordinates of the object area as object coordinates.

ステップS104で、判定部113は、現フレームと、現フレームとは異なる過去の他のフレームとのオブジェクト座標の移動量に基づいて、アンカー情報を保存しておくフレームを特定する。ステップS104の処理は、図10を用いて後述する。   In step S <b> 104, the determination unit 113 identifies a frame in which anchor information is to be stored based on the amount of movement of object coordinates between the current frame and other past frames different from the current frame. The process of step S104 will be described later with reference to FIG.

ステップS105で、アンカー情報生成部10は、アンカー情報の属性を追加設定する。アンカー情報の属性は、例えば、リンク先や表示属性や名称などである。   In step S105, the anchor information generation unit 10 additionally sets an attribute of anchor information. The attribute of the anchor information is, for example, a link destination, a display attribute, a name, or the like.

ステップS106で、生成部114は、保存対象として特定されたフレームのフレーム識別子とアンカー位置情報とを、アンカー情報としてリンク定義記憶部12に記憶する。   In step S106, the generation unit 114 stores the frame identifier and anchor position information of the frame specified as the storage target in the link definition storage unit 12 as anchor information.

ステップS107で、アンカー情報編集部14は、設定されたアンカーをプレビューして、操作部11から位置変更要求を通知されたか否かを判定する。位置変更要求がある場合(ステップS107−YES)ステップS108に進み、位置変更要求がない場合(ステップS107−NO)処理を終了する。   In step S107, the anchor information editing unit 14 previews the set anchor and determines whether or not a position change request is notified from the operation unit 11. If there is a position change request (step S107—YES), the process proceeds to step S108, and if there is no position change request (step S107—NO), the process is terminated.

ステップS108で、変更部142は、アンカー位置情報の編集を行う。変更部142は、例えば、編集対象のフレームのフレーム識別子及び編集後のアンカー位置情報を取得し、リンク定義記憶部12に記憶される編集対象のフレームのアンカー位置情報を、編集後のアンカーの位置情報に変更する。   In step S108, the changing unit 142 edits the anchor position information. For example, the changing unit 142 acquires the frame identifier of the frame to be edited and the anchor position information after editing, and uses the anchor position information of the frame to be edited stored in the link definition storage unit 12 as the anchor position after editing. Change to information.

次に、ステップS104の処理について詳しく説明する。図10は、アンカー情報の生成処理の一例を示すフローチャートである。図10に示すステップS201で、生成部114は、開始フレームを現フレーム及び特定データとして設定する。現フレームとは、判定対象の基準となるフレームである。特定データとは、リンク定義記憶部12に記憶される対象となるデータである。   Next, the process of step S104 will be described in detail. FIG. 10 is a flowchart illustrating an example of an anchor information generation process. In step S201 illustrated in FIG. 10, the generation unit 114 sets the start frame as the current frame and specific data. The current frame is a frame that serves as a reference for determination. The specific data is data to be stored in the link definition storage unit 12.

ステップS202で、判定部113は、現フレームをインクリメントする。インクリメントすることで、現フレームは表示時間順で次のフレームになる。   In step S202, the determination unit 113 increments the current frame. By incrementing, the current frame becomes the next frame in display time order.

ステップS203で、判定部113は、現フレームと前フレームのオブジェクト座標を比較対象に設定する。前フレームは、例えば現フレームの直前のフレームである。   In step S203, the determination unit 113 sets the object coordinates of the current frame and the previous frame as comparison targets. The previous frame is, for example, a frame immediately before the current frame.

ステップS204で、判定部113は、オブジェクト座標の差分を示す移動量の絶対値が所定値(オブジェクトサイズ)以上であるか否かを判定する。以下では、オブジェクト座標の差分を示す移動量をオブジェクト移動量とも呼ぶ。オブジェクト移動量の絶対値がオブジェクトサイズ以上であれば(ステップS204−YES)ステップS206に進み、オブジェクト移動量の絶対値がオブジェクトサイズ未満であれば(ステップS204−NO)ステップS205に進む。なお、オブジェクト移動量の絶対値がオブジェクトサイズ以上であるとは、フレーム間でオブジェクト領域が重複しないようにオブジェクトが移動した場合をいう。   In step S204, the determination unit 113 determines whether or not the absolute value of the movement amount indicating the difference between the object coordinates is equal to or greater than a predetermined value (object size). Hereinafter, the movement amount indicating the difference between the object coordinates is also referred to as an object movement amount. If the absolute value of the object movement amount is equal to or larger than the object size (step S204—YES), the process proceeds to step S206. If the absolute value of the object movement amount is less than the object size (step S204—NO), the process proceeds to step S205. Note that the absolute value of the object movement amount being equal to or larger than the object size means a case where the object has moved so that the object areas do not overlap between frames.

ステップS205で、判定部113は、オブジェクト移動量の絶対値が所定値(アンカーサイズ)以上であるか否かを判定する。オブジェクト移動量の絶対値がアンカーサイズ以上であれば(ステップS205−YES)ステップS206に進み、オブジェクト移動量の絶対値がアンカーサイズ未満であれば(ステップS205−NO)ステップS207に進む。なお、オブジェクト移動量の絶対値がアンカーサイズ以上であるとは、フレーム間でアンカーの縦、横、又は対角線以上にオブジェクトが移動した場合をいう。   In step S205, the determination unit 113 determines whether or not the absolute value of the object movement amount is equal to or greater than a predetermined value (anchor size). If the absolute value of the object movement amount is greater than or equal to the anchor size (step S205—YES), the process proceeds to step S206. If the absolute value of the object movement amount is less than the anchor size (step S205—NO), the process proceeds to step S207. Note that the absolute value of the object movement amount being equal to or larger than the anchor size refers to a case where the object has moved more than the vertical, horizontal, or diagonal lines of the anchor between frames.

ステップS205の判定を行う理由は、オブジェクトのサイズが大きい場合、ステップS204の判定で肯定される場合が少なくなるので、アンカーサイズ以上移動した場合には、現フレームを特定データとするためである。   The reason for performing the determination in step S205 is that when the object size is large, the determination in step S204 is less likely to be affirmed, so that the current frame is used as the specific data when moving beyond the anchor size.

ステップS206で、生成部114は、現フレーム及び前フレームを特定データに設定する。なお、生成部114は、前フレームが既に特定データにされている場合は、現フレームのみを特定データに設定する。   In step S206, the generation unit 114 sets the current frame and the previous frame as specific data. Note that when the previous frame has already been specified data, the generation unit 114 sets only the current frame as specified data.

なお、ステップS204、S205の処理は、前後のフレーム間で移動量が大きい場合を見分ける処理である。これにより、瞬間的にオブジェクトが大きく移動した場合を特定し、現フレームを特定データとすることができる。   Note that the processes in steps S204 and S205 are processes for discriminating when the amount of movement between the previous and subsequent frames is large. As a result, it is possible to specify a case where the object has moved greatly instantaneously and use the current frame as the specified data.

ステップS207で、判定部113は、直前の特定データと、現フレームのオブジェクト座標を比較対象に設定する。直前の特定データとは、特定データの中で、表示順が一番後(最新)のフレームをいう。   In step S207, the determination unit 113 sets the immediately preceding specific data and the object coordinates of the current frame as comparison targets. The immediately preceding specific data refers to the frame with the last display order (latest) in the specific data.

ステップS208で、判定部113は、オブジェクト移動量の絶対値が所定値(オブジェクトサイズ)以上であるか否かを判定する。オブジェクト移動量の絶対値がオブジェクトサイズ以上であれば(ステップS208−YES)ステップS211に進み、オブジェクト移動量の絶対値がオブジェクトサイズ未満であれば(ステップS208−NO)ステップS209に進む。   In step S208, the determination unit 113 determines whether or not the absolute value of the object movement amount is greater than or equal to a predetermined value (object size). If the absolute value of the object movement amount is greater than or equal to the object size (step S208—YES), the process proceeds to step S211. If the absolute value of the object movement amount is less than the object size (step S208—NO), the process proceeds to step S209.

ステップS209で、判定部113は、オブジェクト移動量の絶対値が所定値(アンカーサイズ)以上であるか否かを判定する。オブジェクト移動量の絶対値がアンカーサイズ以上であれば(ステップS209−YES)ステップS211に進み、オブジェクト移動量の絶対値がアンカーサイズ未満であれば(ステップS209−NO)ステップS210に進む。   In step S209, the determination unit 113 determines whether or not the absolute value of the object movement amount is equal to or greater than a predetermined value (anchor size). If the absolute value of the object movement amount is equal to or larger than the anchor size (step S209—YES), the process proceeds to step S211. If the absolute value of the object movement amount is less than the anchor size (step S209—NO), the process proceeds to step S210.

なお、ステップS208、S209の処理は、特定データのフレームから、ゆっくりと移動し、特定データのオブジェクトからの移動量が大きい場合を見分ける処理である。これにより、ゆっくりとオブジェクトが移動し、特定データのオブジェクトの位置から所定以上移動した場合を特定し、現フレームを特定データとすることができる。   Note that the processing in steps S208 and S209 is processing for discriminating when the movement is slowly performed from the frame of the specific data and the movement amount from the object of the specific data is large. As a result, it is possible to specify the case where the object moves slowly and moves a predetermined amount or more from the position of the object of the specific data, and the current frame can be used as the specific data.

ステップS210で、判定部113は、直前の特定データと現フレームとのフレーム間隔が、設定された基準値(閾値)以上であるか否かを判定する。閾値は、例えば3又は5秒とするが、実験などにより適切な値が設定されればよい。フレーム間隔が閾値以上であれば(ステップS210−YES)ステップS211に進み、フレーム間隔が閾値未満であれば(ステップS210−NO)ステップS212に進む。   In step S210, the determination unit 113 determines whether or not the frame interval between the immediately preceding specific data and the current frame is greater than or equal to a set reference value (threshold value). The threshold is 3 or 5 seconds, for example, but an appropriate value may be set by experiment or the like. If the frame interval is greater than or equal to the threshold (step S210—YES), the process proceeds to step S211. If the frame interval is less than the threshold (step S210—NO), the process proceeds to step S212.

ステップS210の判定を行う理由は、オブジェクトの微妙な動きにアンカーを追随させるため、所定間隔で現フレームを特定データとするためである。   The reason for performing the determination in step S210 is to make the current frame specific data at a predetermined interval in order to make the anchor follow the delicate movement of the object.

ステップS211で、生成部114は、現フレームを特定データに設定する。   In step S211, the generation unit 114 sets the current frame as specific data.

ステップS212で、判定部113は、現フレームが最終フレームであるか否かを判定する。現フレームが最終フレームであれば(ステップS212−YES)ステップS213に進み、現フレームが最終フレームでなければ(ステップS212−NO)ステップS202に戻る。   In step S212, the determination unit 113 determines whether or not the current frame is the last frame. If the current frame is the final frame (step S212—YES), the process proceeds to step S213, and if the current frame is not the final frame (step S212—NO), the process returns to step S202.

ステップS213で、生成部114は、最終フレームを特定データに設定する。最終フレームを特定データにする理由は、補間演算に最終フレームのアンカーの位置を用いるためである。   In step S213, the generation unit 114 sets the final frame as specific data. The reason for using the final frame as specific data is that the position of the anchor of the final frame is used for the interpolation calculation.

以上の処理により、アンカー情報を全てのフレームで記憶しなくてもよくなるため、アンカー情報のデータ量を削減することができる。   With the above processing, the anchor information does not have to be stored in every frame, so that the data amount of the anchor information can be reduced.

次に、アンカーが設定された動画を再生する処理について説明する。図11は、動画再生処理の一例を示すフローチャートである。図11に示すステップS301で、再生制御部15は、動画データ記憶部13から対象動画を読み込み、リンク定義記憶部12からアンカー情報を読み込む。   Next, a process for playing back a moving image with an anchor set will be described. FIG. 11 is a flowchart illustrating an example of the moving image reproduction process. In step S301 illustrated in FIG. 11, the reproduction control unit 15 reads the target moving image from the moving image data storage unit 13 and reads anchor information from the link definition storage unit 12.

ステップS302で、再生制御部15は、読み込んだ動画データを再生する。ステップS303で、描画部151は、アンカーを描画するか否かを判定する。例えば、描画部151は、アンカー情報に含まれる最初のフレーム識別子が示すフレームと最後のフレーム識別子が示すフレームとの間のフレームが再生されるかを判定する。描画する場合(ステップS303−YES)ステップS304に進み、描画しない場合(ステップS303−NO)ステップS302に戻る。   In step S302, the reproduction control unit 15 reproduces the read moving image data. In step S303, the drawing unit 151 determines whether to draw an anchor. For example, the drawing unit 151 determines whether a frame between the frame indicated by the first frame identifier and the frame indicated by the last frame identifier included in the anchor information is reproduced. When drawing is performed (step S303—YES), the process proceeds to step S304. When drawing is not performed (step S303—NO), the process returns to step S302.

ステップS304で、描画部151は、再生対象のフレームに関連付けられたアンカー位置情報があるか否かを判定する。アンカー位置情報があれば(ステップS304−YES)ステップS305に進み、アンカー位置情報がなければ(ステップS304−NO)ステップS306に進む。   In step S304, the drawing unit 151 determines whether there is anchor position information associated with the playback target frame. If there is anchor position information (step S304—YES), the process proceeds to step S305, and if there is no anchor position information (step S304—NO), the process proceeds to step S306.

ステップS305で、描画部151は、アンカー情報に含まれるフレーム識別子が示すフレームが再生されるとき、動画データのフレーム又は再生時間と同期して、アンカー位置情報が示す位置にアンカーを描画する。アンカーは、例えばリンクアイコンとする。   In step S305, when the frame indicated by the frame identifier included in the anchor information is reproduced, the drawing unit 151 draws the anchor at the position indicated by the anchor position information in synchronization with the frame of the moving image data or the reproduction time. The anchor is a link icon, for example.

ステップS306で、描画部151は、表示対象のフレームの前後に存在するアンカー位置情報から補間演算を行ってアンカーの表示位置を求める。描画部151は、求めた位置にアンカーを移動して描画する。   In step S306, the drawing unit 151 obtains an anchor display position by performing an interpolation operation from anchor position information existing before and after the display target frame. The drawing unit 151 draws by moving the anchor to the obtained position.

ステップS307で、リンクコンテンツ再生部152は、アンカーが選択されたか否かを判定する。アンカーが選択されていれば(ステップS307−YES)ステップS308に進み、アンカーが選択されていなければ(ステップS307−NO)ステップS310に進む。   In step S307, the link content reproduction unit 152 determines whether an anchor is selected. If an anchor has been selected (step S307—YES), the process proceeds to step S308, and if no anchor has been selected (step S307—NO), the process proceeds to step S310.

ステップS308で、リンクコンテンツ再生部152は、アンカーに関連付けられたリンク先の映像を再生する。なお、リンク先は必ずしも動画である必要はなく、静止画やテキストであってもよい。   In step S308, the link content reproduction unit 152 reproduces the link destination video associated with the anchor. The link destination is not necessarily a moving image, and may be a still image or text.

ステップS309で、リンクコンテンツ再生部152は、リンク先から動画に戻るボタンが押下されたか否かを判定する。動画に戻る場合(ステップS309−YES)ステップS302に戻り、動画に戻らない場合(ステップS309−NO)ステップS308に戻る。   In step S309, the link content reproduction unit 152 determines whether or not the button for returning from the link destination to the moving image has been pressed. When returning to a moving image (step S309-YES), it returns to step S302, and when not returning to a moving image (step S309-NO), it returns to step S308.

ステップS310で、再生制御部15は、対象動画が終了したか否かを判定する。動画が終了すれば(ステップS310−YES)再生処理を終了し、動画が終了していなければ(ステップS310−NO)ステップS302に戻る。   In step S310, the playback control unit 15 determines whether the target moving image has ended. If the movie ends (step S310—YES), the playback process ends. If the movie does not end (step S310—NO), the process returns to step S302.

以上の処理により、アンカーが設定された動画を再生することができる。また、ステップS306の処理では例えばアニメーション描画処理を行うことで、アンカーのちらつきを防止することができる。   Through the above processing, a moving image with an anchor set can be reproduced. Further, in the process of step S306, for example, an animation drawing process is performed, so that anchor flickering can be prevented.

以上、実施例によれば、アンカーの編集を容易にしつつ、アンカー情報のデータ量を削減することができる。   As described above, according to the embodiment, it is possible to reduce the data amount of anchor information while facilitating editing of an anchor.

[変形例]
図12は、情報処理装置のハードウェアの一例を示すブロック図である。図12に示すように、情報処理装置2は、制御部201、主記憶部202、補助記憶部203、ドライブ装置204、ネットワークI/F部206、入力部207、表示部208を含む。これら各構成は、バスを介して相互にデータ送受信可能に接続されている。
[Modification]
FIG. 12 is a block diagram illustrating an example of hardware of the information processing apparatus. As illustrated in FIG. 12, the information processing apparatus 2 includes a control unit 201, a main storage unit 202, an auxiliary storage unit 203, a drive device 204, a network I / F unit 206, an input unit 207, and a display unit 208. These components are connected to each other via a bus so as to be able to transmit and receive data.

制御部201は、コンピュータの中で、各装置の制御やデータの演算、加工を行うCPUである。また、制御部201は、主記憶部202や補助記憶部203に記憶されたプログラムを実行する演算装置である。このプログラムは、上記実施例で図9〜11で説明した情報処理を実行するプログラムである。   The control unit 201 is a CPU that controls each device, calculates data, and processes in a computer. The control unit 201 is an arithmetic device that executes a program stored in the main storage unit 202 or the auxiliary storage unit 203. This program is a program for executing the information processing described with reference to FIGS.

制御部201は、このプログラムを実行することで、実施例で説明した情報処理を実現できる。   The control unit 201 can realize the information processing described in the embodiment by executing this program.

主記憶部202は、ROM(Read Only Memory)やRAM(Random Access Memory)などであり、制御部201が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。   The main storage unit 202 is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like, and a storage device that stores or temporarily stores programs and data such as an OS and application software that are basic software executed by the control unit 201. It is.

補助記憶部203は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。   The auxiliary storage unit 203 is an HDD (Hard Disk Drive) or the like, and is a storage device that stores data related to application software and the like.

ドライブ装置204は、記録媒体205、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。   The drive device 204 reads the program from the recording medium 205, for example, a flexible disk, and installs it in the storage device.

また、記録媒体205に、所定のプログラムを格納し、この記録媒体205に格納されたプログラムはドライブ装置204を介して情報処理装置2にインストールされる。インストールされた所定のプログラムは、情報処理装置2により実行可能となる。   A predetermined program is stored in the recording medium 205, and the program stored in the recording medium 205 is installed in the information processing apparatus 2 via the drive device 204. The installed predetermined program can be executed by the information processing apparatus 2.

ネットワークI/F部206は、有線及び/又は無線回線などのデータ伝送路により構築されたLAN(Local Area Network)、WAN(Wide Area Network)などのネットワークを介して接続された通信機能を有する周辺機器と情報処理装置2とのインターフェースである。   The network I / F unit 206 has a communication function connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network) constructed by a data transmission path such as a wired and / or wireless line. This is an interface between the device and the information processing apparatus 2.

入力部207は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、表示部208の表示画面上でキーの選択等を行うためのマウスやスライスパット等を有する。また、入力部207は、ユーザが制御部201に操作指示を与えたり、データを入力したりするためのユーザインターフェースである。   The input unit 207 includes a keyboard having cursor keys, numeric input, various function keys, and the like, a mouse and a slice pad for performing key selection on the display screen of the display unit 208, and the like. The input unit 207 is a user interface for a user to give an operation instruction to the control unit 201 or input data.

表示部208は、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等により構成され、制御部201から入力される表示データに応じた表示が行われる。   The display unit 208 is configured by a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or the like, and performs display according to display data input from the control unit 201.

このように、上述した実施例で説明した情報処理は、コンピュータに実行させるためのプログラムとして実現されてもよい。このプログラムをサーバ等からインストールしてコンピュータに実行させることで、上述した情報処理を実現することができる。   As described above, the information processing described in the above-described embodiments may be realized as a program for causing a computer to execute. The information processing described above can be realized by installing this program from a server or the like and causing the computer to execute it.

また、このプログラムを記録媒体205に記録し、このプログラムが記録された記録媒体205をコンピュータや携帯端末に読み取らせて、上述した情報処理を実現させることも可能である。なお、記録媒体205は、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等、様々なタイプの記録媒体を用いることができる。記録媒体には、搬送波は含まれない。また、上述した実施例で説明した情報処理は、1つ又は複数の集積回路に実装してもよい。   It is also possible to record the program on the recording medium 205 and cause the computer or portable terminal to read the recording medium 205 on which the program is recorded, thereby realizing the information processing described above. The recording medium 205 is a recording medium that records information optically, electrically, or magnetically, such as a CD-ROM, a flexible disk, or a magneto-optical disk, and information is electrically stored such as a ROM or flash memory. Various types of recording media such as a semiconductor memory for recording can be used. The recording medium does not include a carrier wave. Further, the information processing described in the above-described embodiments may be implemented in one or a plurality of integrated circuits.

上記実施例や変形例は、例えば動画を活用した説明解説ドキュメント、操作マニュアル、教育コンテンツを作成する装置に適用することができる。   The above-described embodiments and modifications can be applied to, for example, an explanatory commentary document, an operation manual, and an apparatus that creates educational content using moving images.

以上、実施例について詳述したが、上記実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、上記変形例以外にも種々の変形及び変更が可能である。   Although the embodiments have been described in detail above, the present invention is not limited to the above-described embodiments, and various modifications and changes other than the above-described modifications are possible within the scope described in the claims.

なお、以上の各実施例に関し、さらに以下の付記を開示する。
(付記1)
動画に含まれる画像内の対象物に対するアンカーの設定を受け付け、
前記動画に含まれる所定画像内の前記アンカーが設定された対象物と、前記動画に含まれる他の画像内の該対象物との移動量が所定値以上であるか否かを判定し、
前記所定値以上であると判定された場合に、判定対象の画像の識別子と、前記アンカーの位置情報とを記憶部に記憶する処理をコンピュータに実行させるためのプログラム。
(付記2)
前記他の画像は、前記所定画像の直前の画像である場合、
前記記憶する処理は、
前記所定画像の識別子と、前記所定画像内のアンカーの位置情報と、前記直前の画像の識別子と、前記次の画像内のアンカーの位置情報とを前記記憶部に記憶する付記1記載のプログラム。
(付記3)
前記他の画像は、前記記憶部に対する記憶対象の中で最新の画像である場合、
前記記憶する処理は、
前記所定画像の識別子と、前記所定画像内のアンカーの位置情報とを前記記憶部に記憶する付記1又は2記載のプログラム。
(付記4)
前記判定する処理は、
前記所定画像と、前記最新の画像との間隔が閾値以上であるか否かをさらに判定し、
前記記憶する処理は、
前記間隔が閾値以上であると判定された場合、前記所定画像の識別子と、前記所定画像の位置情報とを前記記憶部に記憶する付記1乃至3いずれか一項に記載のプログラム。
(付記5)
前記動画を再生する場合、
前記記憶部に記憶された識別子が示す画像を表示するとき、前記位置情報が示す位置に前記アンカーを重畳して表示し、
前記記憶部に記憶された識別子が示す画像以外の画像を表示するとき、前記記憶部に記憶された識別子が示す画像のうち、表示対象の画像の前後に位置する2つの画像に対応するそれぞれの前記アンカーの位置情報に基づいて補間演算した位置に、前記アンカーを重畳して表示する処理をさらにコンピュータに実行させるための付記1乃至4いずれか一項に記載のプログラム。
(付記6)
動画に含まれる画像内の対象物に対するアンカーを設定する設定部と、
前記動画に含まれる所定画像内の前記アンカーが設定された対象物と、前記動画に含まれる他の画像内の該対象物との移動量が所定値以上であるか否かを判定する判定部と、
前記所定値以上であると判定された場合に、判定対象の画像の識別子と、前記アンカーの位置情報とを記憶する記憶部と、
を備える情報処理装置。
(付記7)
動画に含まれる画像内の対象物に対するアンカーの設定を受け付け、
前記動画に含まれる所定画像内の前記アンカーが設定された対象物と、前記動画に含まれる他の画像内の該対象物との移動量が所定値以上であるか否かを判定し、
前記所定値以上であると判定された場合に、判定対象の画像の識別子と、前記アンカーの位置情報とを記憶部に記憶する処理をコンピュータが実行する情報処理方法。
(付記8)
動画に含まれる画像内の対象物に対するアンカーの設定を受け付け、
前記動画に含まれる所定画像内の前記アンカーが設定された対象物と、前記動画に含まれる他の画像内の該対象物との移動量が所定値以上であるか否かを判定し、
前記所定値以上であると判定された場合に、判定対象の画像の識別子と、前記アンカーの位置情報とを記憶部に記憶する処理をコンピュータに実行させるためのプログラムを記録した、コンピュータ読取可能な記録媒体。
In addition, the following additional notes are disclosed regarding each of the above embodiments.
(Appendix 1)
Accept anchor settings for objects in the images included in the video,
Determining whether the amount of movement between the object in which the anchor in the predetermined image included in the video is set and the target in the other image included in the video is greater than or equal to a predetermined value;
A program for causing a computer to execute a process of storing an identifier of an image to be determined and position information of the anchor in a storage unit when it is determined that the value is equal to or greater than the predetermined value.
(Appendix 2)
When the other image is an image immediately before the predetermined image,
The storing process is:
The program according to claim 1, wherein an identifier of the predetermined image, position information of an anchor in the predetermined image, an identifier of the immediately preceding image, and position information of an anchor in the next image are stored in the storage unit.
(Appendix 3)
When the other image is the latest image among the objects to be stored in the storage unit,
The storing process is:
The program according to appendix 1 or 2, wherein an identifier of the predetermined image and position information of an anchor in the predetermined image are stored in the storage unit.
(Appendix 4)
The determination process is as follows.
It is further determined whether or not an interval between the predetermined image and the latest image is greater than or equal to a threshold value,
The storing process is:
The program according to any one of appendices 1 to 3, wherein when the interval is determined to be greater than or equal to a threshold value, an identifier of the predetermined image and position information of the predetermined image are stored in the storage unit.
(Appendix 5)
When playing the video,
When displaying the image indicated by the identifier stored in the storage unit, the anchor is displayed superimposed on the position indicated by the position information,
When displaying an image other than the image indicated by the identifier stored in the storage unit, among the images indicated by the identifier stored in the storage unit, each corresponding to two images positioned before and after the display target image The program according to any one of appendices 1 to 4, further causing a computer to execute a process of superimposing and displaying the anchor at a position calculated by interpolation based on the position information of the anchor.
(Appendix 6)
A setting unit for setting an anchor for an object in an image included in the video;
A determination unit that determines whether or not a moving amount between the object in which the anchor is set in the predetermined image included in the moving image and the target object in the other image included in the moving image is equal to or larger than a predetermined value. When,
A storage unit that stores an identifier of a determination target image and position information of the anchor when it is determined that the value is equal to or greater than the predetermined value;
An information processing apparatus comprising:
(Appendix 7)
Accept anchor settings for objects in the images included in the video,
Determining whether the amount of movement between the object in which the anchor in the predetermined image included in the video is set and the target in the other image included in the video is greater than or equal to a predetermined value;
An information processing method in which a computer executes a process of storing an identifier of an image to be determined and position information of the anchor in a storage unit when it is determined that the value is equal to or greater than the predetermined value.
(Appendix 8)
Accept anchor settings for objects in the images included in the video,
Determining whether the amount of movement between the object in which the anchor in the predetermined image included in the video is set and the target in the other image included in the video is greater than or equal to a predetermined value;
A computer-readable recording medium storing a program for causing a computer to execute processing for storing an identifier of an image to be determined and position information of the anchor in a storage unit when it is determined that the value is equal to or greater than the predetermined value. recoding media.

1 情報処理装置
10 アンカー情報生成部
11 操作部
12 リンク定義記憶部
13 動画データ記憶部
14 アンカー情報編集部
15 再生制御部
16 表示部
111 設定部
112 抽出部
113 判定部
114 生成部
141 編集部
142 変更部
151 描画部
152 リンクコンテンツ再生部
201 制御部
DESCRIPTION OF SYMBOLS 1 Information processing apparatus 10 Anchor information production | generation part 11 Operation part 12 Link definition memory | storage part 13 Movie data memory | storage part 14 Anchor information editing part 15 Playback control part 16 Display part 111 Setting part 112 Extraction part 113 Determination part 114 Generation part 141 Editing part 142 Change unit 151 Drawing unit 152 Link content playback unit 201 Control unit

Claims (6)

動画に含まれる画像内の対象物に対するアンカーの設定を受け付け、
前記動画に含まれる所定画像内の前記アンカーが設定された対象物と、前記動画に含まれる他の画像内の該対象物との移動量が所定値以上であるか否かを判定し、
前記所定値以上であると判定された場合に、判定対象の画像の識別子と、前記アンカーの位置情報とを記憶部に記憶する処理をコンピュータに実行させ
前記他の画像は、前記記憶部に対する記憶対象の中で最新の画像である場合、
前記記憶する処理は、
前記所定画像の識別子と、前記所定画像内のアンカーの位置情報とを前記記憶部に記憶するプログラム。
Accept anchor settings for objects in the images included in the video,
Determining whether the amount of movement between the object in which the anchor in the predetermined image included in the video is set and the target in the other image included in the video is greater than or equal to a predetermined value;
When it is determined that the value is equal to or greater than the predetermined value, the computer executes a process of storing the identifier of the determination target image and the position information of the anchor in a storage unit ,
When the other image is the latest image among the objects to be stored in the storage unit,
The storing process is:
The program which memorize | stores the identifier of the said predetermined image, and the positional information on the anchor in the said predetermined image in the said memory | storage part .
動画に含まれる画像内の対象物に対するアンカーの設定を受け付け、
前記動画に含まれる所定画像内の前記アンカーが設定された対象物と、前記動画に含まれる他の画像内の該対象物との移動量が所定値以上であるか否かを判定し、
前記所定値以上であると判定された場合に、判定対象の画像の識別子と、前記アンカーの位置情報とを記憶部に記憶する処理をコンピュータに実行させ
前記判定する処理は、
前記所定画像と、前記記憶部に対する記憶対象の中で最新の画像との間隔が閾値以上であるか否かをさらに判定し、
前記記憶する処理は、
前記間隔が閾値以上であると判定された場合、前記所定画像の識別子と、前記所定画像の位置情報とを前記記憶部に記憶するプログラム。
Accept anchor settings for objects in the images included in the video,
Determining whether the amount of movement between the object in which the anchor in the predetermined image included in the video is set and the target in the other image included in the video is greater than or equal to a predetermined value;
When it is determined that the value is equal to or greater than the predetermined value, the computer executes a process of storing the identifier of the determination target image and the position information of the anchor in a storage unit ,
The determination process is as follows:
It is further determined whether or not an interval between the predetermined image and the latest image in the storage target for the storage unit is greater than or equal to a threshold value,
The storing process is:
The program which memorize | stores the identifier of the said predetermined image, and the positional information on the said predetermined image in the said memory | storage part, when it determines with the said space | interval being more than a threshold value .
前記他の画像は、前記所定画像の直前の画像である場合、
前記記憶する処理は、
前記所定画像の識別子と、前記所定画像内のアンカーの位置情報と、前記直前の画像の識別子と、次の画像内のアンカーの位置情報とを前記記憶部に記憶する請求項1又は2記載のプログラム。
When the other image is an image immediately before the predetermined image,
The storing process is:
An identifier of the predetermined image, and position information of the anchor within the predetermined image, an identifier of the immediately preceding image, and position information of the anchor in the next image of claim 1, wherein stored in the storage unit program.
前記動画を再生する場合、
前記記憶部に記憶された識別子が示す画像を表示するとき、前記位置情報が示す位置に前記アンカーを重畳して表示し、
前記記憶部に記憶された識別子が示す画像以外の画像を表示するとき、前記記憶部に記憶された識別子が示す画像のうち、表示対象の画像の前後に位置する2つの画像に対応するそれぞれの前記アンカーの位置情報に基づいて補間演算した位置に、前記アンカーを重畳して表示する処理をさらにコンピュータに実行させるための請求項1乃至いずれか一項に記載のプログラム。
When playing the video,
When displaying the image indicated by the identifier stored in the storage unit, the anchor is displayed superimposed on the position indicated by the position information,
When displaying an image other than the image indicated by the identifier stored in the storage unit, among the images indicated by the identifier stored in the storage unit, each corresponding to two images positioned before and after the display target image The program according to any one of claims 1 to 3 , further causing a computer to execute a process of superimposing and displaying the anchor at a position calculated by interpolation based on the position information of the anchor.
動画に含まれる画像内の対象物に対するアンカーを設定する設定部と、
前記動画に含まれる所定画像内の前記アンカーが設定された対象物と、前記動画に含まれる他の画像内の該対象物との移動量が所定値以上であるか否かを判定する判定部と、
前記所定値以上であると判定された場合に、判定対象の画像の識別子と、前記アンカーの位置情報とを記憶する記憶部と、
を備え
前記他の画像は、前記記憶部に対する記憶対象の中で最新の画像である場合、
前記記憶部は、
前記所定画像の識別子と、前記所定画像内のアンカーの位置情報とを記憶する情報処理装置。
A setting unit for setting an anchor for an object in an image included in the video;
A determination unit that determines whether or not a moving amount between the object in which the anchor is set in the predetermined image included in the moving image and the target object in the other image included in the moving image is equal to or larger than a predetermined value. When,
A storage unit that stores an identifier of a determination target image and position information of the anchor when it is determined that the value is equal to or greater than the predetermined value;
Equipped with a,
When the other image is the latest image among the objects to be stored in the storage unit,
The storage unit
An information processing apparatus that stores an identifier of the predetermined image and position information of an anchor in the predetermined image .
動画に含まれる画像内の対象物に対するアンカーの設定を受け付け、
前記動画に含まれる所定画像内の前記アンカーが設定された対象物と、前記動画に含まれる他の画像内の該対象物との移動量が所定値以上であるか否かを判定し、
前記所定値以上であると判定された場合に、判定対象の画像の識別子と、前記アンカーの位置情報とを記憶部に記憶する処理をコンピュータが実行し、
前記他の画像は、前記記憶部に対する記憶対象の中で最新の画像である場合、
前記記憶する処理は、
前記所定画像の識別子と、前記所定画像内のアンカーの位置情報とを前記記憶部に記憶する情報処理方法。
Accept anchor settings for objects in the images included in the video,
Determining whether the amount of movement between the object in which the anchor in the predetermined image included in the video is set and the target in the other image included in the video is greater than or equal to a predetermined value;
When it is determined that the value is equal to or greater than the predetermined value, the computer executes a process of storing the identifier of the image to be determined and the position information of the anchor in a storage unit ,
When the other image is the latest image among the objects to be stored in the storage unit,
The storing process is:
The information processing method which memorize | stores the identifier of the said predetermined image, and the positional information on the anchor in the said predetermined image in the said memory | storage part .
JP2011282403A 2011-12-22 2011-12-22 Program, image processing apparatus and image processing method Expired - Fee Related JP5838791B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011282403A JP5838791B2 (en) 2011-12-22 2011-12-22 Program, image processing apparatus and image processing method
US13/671,625 US9380259B2 (en) 2011-12-22 2012-11-08 Information processing device and information processing method
CN201210519494.5A CN103219028B (en) 2011-12-22 2012-12-06 Information processing device and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011282403A JP5838791B2 (en) 2011-12-22 2011-12-22 Program, image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2013134506A JP2013134506A (en) 2013-07-08
JP5838791B2 true JP5838791B2 (en) 2016-01-06

Family

ID=48654664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011282403A Expired - Fee Related JP5838791B2 (en) 2011-12-22 2011-12-22 Program, image processing apparatus and image processing method

Country Status (3)

Country Link
US (1) US9380259B2 (en)
JP (1) JP5838791B2 (en)
CN (1) CN103219028B (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113984217B (en) * 2013-11-25 2023-07-25 杭州美盛红外光电技术有限公司 Analysis area setting device, processing device, analysis area setting method, and processing method
US9858686B2 (en) * 2016-02-10 2018-01-02 Google Llc Dynamic color determination for user interface components of a video player
US10417738B2 (en) 2017-01-05 2019-09-17 Perfect Corp. System and method for displaying graphical effects based on determined facial positions
US10277960B2 (en) 2017-01-30 2019-04-30 Tap Media Labs, Inc. Method and system for seeding video programs with episodic interactive items
CN110062269A (en) * 2018-01-18 2019-07-26 腾讯科技(深圳)有限公司 Extra objects display methods, device and computer equipment
CN110490636B (en) * 2019-07-15 2023-07-11 平安科技(深圳)有限公司 Client information management method, device, computer readable storage medium and server

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3214258B2 (en) 1994-10-24 2001-10-02 三菱電機株式会社 Video processing device, video anchor display method, video anchor determination method
JP3309642B2 (en) * 1995-05-31 2002-07-29 ソニー株式会社 Image information recording method and system
US5970504A (en) 1996-01-31 1999-10-19 Mitsubishi Denki Kabushiki Kaisha Moving image anchoring apparatus and hypermedia apparatus which estimate the movement of an anchor based on the movement of the object with which the anchor is associated
JP3511278B2 (en) * 1996-01-31 2004-03-29 三菱電機株式会社 Video anchor setting device
US6144972A (en) 1996-01-31 2000-11-07 Mitsubishi Denki Kabushiki Kaisha Moving image anchoring apparatus which estimates the movement of an anchor based on the movement of the object with which the anchor is associated utilizing a pattern matching technique
JP2001507908A (en) 1997-11-07 2001-06-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Image sequence encoding
US6462754B1 (en) 1999-02-22 2002-10-08 Siemens Corporate Research, Inc. Method and apparatus for authoring and linking video documents
US7280753B2 (en) * 2003-09-03 2007-10-09 Canon Kabushiki Kaisha Display apparatus, image processing apparatus, and image processing system
US7634106B2 (en) * 2004-09-22 2009-12-15 Fujifilm Corporation Synthesized image generation method, synthesized image generation apparatus, and synthesized image generation program
JP2006246175A (en) * 2005-03-04 2006-09-14 Epson Avasys Corp Moving image converter
JP2009055519A (en) * 2007-08-29 2009-03-12 Sony Corp Encoding processing apparatus, encoding processing method, decoding processing apparatus, and decoding processing method
KR101380783B1 (en) * 2008-08-22 2014-04-02 정태우 Method for providing annexed service by indexing object in video
JP4650579B2 (en) * 2009-03-30 2011-03-16 日本ビクター株式会社 Video data recording apparatus, video data reproducing apparatus, video data recording method, and video data reproducing method
JP2011166264A (en) * 2010-02-05 2011-08-25 Sony Corp Image processing apparatus, imaging device and image processing method, and program

Also Published As

Publication number Publication date
JP2013134506A (en) 2013-07-08
US20130163958A1 (en) 2013-06-27
CN103219028B (en) 2017-04-26
CN103219028A (en) 2013-07-24
US9380259B2 (en) 2016-06-28

Similar Documents

Publication Publication Date Title
US10725734B2 (en) Voice input apparatus
JP5838791B2 (en) Program, image processing apparatus and image processing method
TWI509409B (en) Methods and systems for viewing log data recorded during execution of a program
US8307287B2 (en) Heads-up-display for use in a media manipulation operation
JP5429060B2 (en) Display control apparatus, display control method, display control program, and recording medium on which this display control program is recorded
US20200185007A1 (en) Interface apparatus and recording apparatus
JP2013077982A (en) Information processing apparatus, information processing method, and program
CN111436005A (en) Method and apparatus for displaying image
US9076489B1 (en) Circular timeline for video trimming
JP4555214B2 (en) Information presenting apparatus, information presenting method, information presenting program, and information recording medium
JP7434762B2 (en) Information processing equipment and programs
KR20150090097A (en) Enhanced information collection environments
JP5200555B2 (en) Recording / reproducing apparatus and program
JP5142830B2 (en) Display device, control method thereof, and program
JP2012252370A (en) Information processing device, information processing method, and program
JP3529587B2 (en) Video list display method and recording medium storing video list display program
US20240244287A1 (en) Video editing using transcript text stylization and layout
CN113473200B (en) Multimedia resource processing method and device, electronic equipment and storage medium
JP2012133459A (en) Apparatus, method and program for estimating image, and computer-readable recording medium storing the program
CN114173177B (en) Video processing method, device, equipment and storage medium
JP5089648B2 (en) Video comparison device, video comparison method, video comparison program, and video comparison program recording medium
JP2017092913A (en) Image reproducer and control method and program therefor and recording medium
JP2014017011A (en) Display program, display method, and computer
JP2021149683A (en) Program, system, and method for producing moving image
JP2009181192A (en) Record reproduction device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151026

R150 Certificate of patent or registration of utility model

Ref document number: 5838791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees