JP2021061461A - プログラム、情報処理装置、情報処理方法及び情報処理システム - Google Patents

プログラム、情報処理装置、情報処理方法及び情報処理システム Download PDF

Info

Publication number
JP2021061461A
JP2021061461A JP2019182485A JP2019182485A JP2021061461A JP 2021061461 A JP2021061461 A JP 2021061461A JP 2019182485 A JP2019182485 A JP 2019182485A JP 2019182485 A JP2019182485 A JP 2019182485A JP 2021061461 A JP2021061461 A JP 2021061461A
Authority
JP
Japan
Prior art keywords
action
moving image
information
user terminal
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019182485A
Other languages
English (en)
Inventor
克明 坂本
Katsuaki Sakamoto
克明 坂本
嵩宏 武藤
Takahiro Muto
嵩宏 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Grit Co Ltd
Original Assignee
Grit Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Grit Co Ltd filed Critical Grit Co Ltd
Priority to JP2019182485A priority Critical patent/JP2021061461A/ja
Publication of JP2021061461A publication Critical patent/JP2021061461A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】動画中のアイテムに対して、動画の再生中にアイテムが選択された場合に実行すべきアクションの設定をより手軽に実現できるプログラム等を提供する。【解決手段】コンピュータは、動画中の対象物の指定を受け付け、指定された対象物に対応してアクションの指定を受け付ける。そして、コンピュータは、指定されたアクションに係る情報を、指定された動画中の対象物に対応付けることにより、動画中の対象物にアクションを設定する。【選択図】図1

Description

本開示はプログラム、情報処理装置、情報処理方法及び情報処理システムに関する。
SNS(Social Networking Service )の普及に伴い、インターネットを介した情報の発信(公開)が容易に行われている。また、スマートフォン及びタブレット端末等の高機能化により、静止画及び動画の撮影が手軽に行えるようになり、静止画及び動画の公開(投稿)が手軽に行われている。SNSでは、公開される画像に各種の加工を行う機能を備えたものもあり、閲覧者の閲覧意欲が増すような工夫が行われている。特許文献1では、動画中のアイテムに対して選択操作が行われると、選択されたアイテムに関する情報が表示される動画再生システムが提案されている。特許文献1に開示されたシステムでは、例えばドラマ(動画)の再生中に、主人公が持っているバッグに対して選択操作を行った場合、このバッグに関する情報が表示されるので、バックに関する情報を得ることができる。
特開2018−26647号公報
特許文献1に開示されたシステムでは、動画中の各アイテムに対して、視聴者が各アイテムを選択操作した場合にアイテム情報が表示されるように予め設定しておく必要がある。なお、動画中から各アイテムを抽出して各アイテムにアイテム情報を設定する処理は、専門知識を有する作業者によって行われている場合が多く、SNSを利用する一般的なユーザが容易に行うことができないという問題がある。
本開示は、このような事情に鑑みてなされたものであり、その目的とするところは、動画中のアイテム(対象物)に対して、アイテムが選択された場合に実行すべきアクション(例えばアイテム情報の表示)の設定をより手軽に実現できるプログラム等を提供することにある。
本開示の一態様に係るプログラムは、動画中の対象物の指定を受け付け、指定された前記対象物に対応してアクションの指定を受け付け、指定された前記アクションに係る情報を、指定された前記動画中の対象物に対応付ける処理をコンピュータに実行させる。
本開示にあっては、動画中の対象物に対して、対象物が選択された場合に実行すべきアクションをより手軽に設定することができる。よって、専門知識を有しない一般的なユーザであっても、動画中の各対象物が選択された場合にアクションを実行するように設定された動画をSNSで公開(投稿)することができる。
情報処理システムの構成例を示す模式図である。 情報処理システムの構成例を示すブロック図である。 対象物認識モデルの構成例を示す模式図である。 サーバ及びユーザ端末に記憶されるDBの構成例を示す模式図である。 アクションの設定処理手順の一例を示すフローチャートである。 ユーザ端末における画面例を示す模式図である。 ユーザ端末における画面例を示す模式図である。 公開用動画の再生処理手順の一例を示すフローチャートである。 ユーザ端末における画面例を示す模式図である。 アクションが設定された公開動画の表示例を示す模式図である。 実施形態2のアクションDBの構成例を示す模式図である。 アクションの設定処理手順の一例を示すフローチャートである。 ユーザ端末における画面例を示す模式図である。 ユーザ端末における画面例を示す模式図である。 実施形態3のアクションの設定処理手順の一例を示すフローチャートである。 ユーザ端末における画面例を示す模式図である。 実施形態4の設定画面例を示す模式図である。 実施形態5のアクションの設定処理手順の一例を示すフローチャートである。 ユーザ端末における画面例を示す模式図である。 実施形態6のアクションの設定処理手順の一例を示すフローチャートである。 ユーザ端末における画面例を示す模式図である。 実施形態7のアクションの設定処理手順の一例を示すフローチャートである。 ユーザ端末における画面例を示す模式図である。 メーカ情報DBの構成例を示す模式図である。 実施形態8の公開用動画の再生処理手順の一例を示すフローチャートである。 ユーザ端末における画面例を示す模式図である。
以下に、本開示のプログラム、情報処理装置、情報処理方法及び情報処理システムについて、その実施形態を示す図面に基づいて詳述する。
(実施形態1)
動画中の対象物が選択操作された場合に所定のアクションが実行されるように、動画データに対してアクションを登録できる情報処理システムについて説明する。図1は、情報処理システムの構成例を示す模式図である。本実施形態の情報処理システム100は、サーバ10及びユーザ端末20(情報処理装置)を含み、サーバ10及びユーザ端末20はインターネット等のネットワークNを介して通信接続されている。サーバ10は、種々の情報処理、情報の送受信が可能な情報処理装置であり、例えばサーバコンピュータ又はパーソナルコンピュータ等である。サーバ10は、複数台設けられてもよいし、1台のサーバ装置内に設けられた複数の仮想マシンによって実現されてもよいし、クラウドサーバを用いて実現されてもよい。サーバ10は、ユーザ端末20からアップロードされた動画データ(動画)を記憶してネットワークN経由で公開する処理、動画中に撮影された対象物を検出する処理等、種々の情報処理を行う。ユーザ端末20は、SNS等を利用するユーザの端末であり、タブレット端末、パーソナルコンピュータ、スマートフォン等である。ユーザ端末20は、動画データの撮影処理、動画中の対象物に対して、指定されたアクションを設定(登録)する処理、動画中の対象物にアクションが設定された動画データをサーバ10にアップロード(送信)する処理等、種々の情報処理を行う。なお、ユーザ端末20は、表示部25(図2参照)にゴーグル型又は眼鏡型のヘッドマウントディスプレイを使用するHMD(Head Mounted Display)型の情報機器であってもよい。
図2は、情報処理システム100の構成例を示すブロック図である。ユーザ端末20は、制御部21、記憶部22、通信部23、入力部24、表示部25、カメラ26、マイク27等を含み、これらの各部はバスを介して相互に接続されている。制御部21は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部21は、記憶部22に記憶してある制御プログラム22Pを適宜実行することにより、ユーザ端末20が行うべき種々の情報処理、制御処理等を行う。記憶部22は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部22は、制御部21が実行する制御プログラム22P及び制御プログラム22Pの実行に必要な各種のデータ等を予め記憶している。また記憶部22は、制御部21が制御プログラム22Pを実行する際に発生するデータ等を一時的に記憶する。また記憶部22は、カメラ26及びマイク27を用いて撮影された撮影動画22aを記憶する。撮影動画22aは、例えば1秒間に30シーン又は60シーン(フレーム)の静止画(静止画データ)を含み、音声データを含んでいてもよい。撮影動画22aは、カメラ26及びマイク27にて撮影されたデータのほかに、ネットワークN経由で他の装置からダウンロード(取得)したデータでもよく、入力部24を介して入力されたデータでもよい。また記憶部22は、サーバ10がネットワークN経由で公開する動画データ(公開動画)を閲覧する処理、撮影動画22aをサーバ10にアップロード(投稿)する処理を行うための動画アプリケーションプログラム22AP(動画アプリ)を記憶している。更に記憶部22は、後述するアクションDB22bを記憶する。アクションDB22bは、ユーザ端末20に接続された記憶装置に記憶されてもよい。記憶部22に記憶されるプログラム及びデータは、制御部21が通信部23を介してネットワークN経由で他の装置からダウンロードして記憶部22に記憶してもよい。また、ユーザ端末20が可搬型記憶媒体に記憶された情報を読み取る読み取り部を有する場合、記憶部22に記憶されるプログラム及びデータは、制御部21が読み取り部を介して可搬型記憶媒体から読み取って記憶部22に記憶してもよい。
通信部23は、無線通信又は有線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して他の装置との間で情報の送受信を行う。入力部24は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部21へ送出する。表示部25は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部21からの指示に従って各種の情報を表示する。入力部24及び表示部25は一体として構成されたタッチパネルであってもよい。カメラ26は、レンズ及び撮像素子等を有する撮像装置であり、レンズを介して被写体像の画像データを取得する。カメラ26は、制御部21からの指示に従って静止画又は動画の撮影を行い、取得した画像データ(撮影画像)を逐次記憶部22へ送出して記憶する。なお、カメラ26は、例えば1秒間に30シーン又は60シーンの静止画を撮影することにより動画(動画データ)を取得する。マイク27は、増幅器及びA/D(アナログ/デジタル)変換器等を有する集音装置であり、周囲の音声を収集してアナログの音声データを取得し、取得した音声データを増幅器にて増幅し、A/D変換器にてデジタルの音声データに変換し、音声データを取得する。マイク27は、制御部21からの指示に従って集音処理を行い、取得した音声データを逐次記憶部22へ送出して記憶する。
サーバ10は、制御部11、記憶部12、通信部13、入力部14、表示部15、読み取り部16等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU、MPU又はGPU等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、サーバ10が行うべき種々の情報処理、制御処理等を行う。
記憶部12は、RAM、フラッシュメモリ、ハードディスク、SSD等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。また記憶部12は、例えばディープラーニングによって構築された学習済みモデルである対象物認識モデル12aを記憶している。対象物認識モデル12aは、画像データが入力された場合に、画像データ中に含まれる対象物が、予め学習してあるアイテムのいずれであるかを特定した特定結果を出力するように学習された学習済みモデルである。学習済みモデルは、入力値に対して所定の演算を行い、演算結果を出力するものであり、記憶部12には、この演算を規定する関数の係数及び閾値等のデータが、対象物認識モデル12aとして記憶される。また記憶部12は、後述するオブジェクトDB12b及び公開動画DB12cを記憶する。なお、オブジェクトDB12b及び公開動画DB12cは、サーバ10に接続された記憶装置に記憶されてもよく、ネットワークNを介してサーバ10が通信可能な記憶装置に記憶されてもよい。
通信部13は、有線通信又は無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して他の装置との間で情報の送受信を行う。入力部14は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部15は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。入力部14及び表示部15は一体として構成されたタッチパネルであってもよい。
読み取り部16は、CD(Compact Disc)−ROM、DVD(Digital Versatile Disc)−ROM及びUSB(Universal Serial Bus)メモリを含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に記憶されるプログラム及びデータは、例えば制御部11が読み取り部16を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に記憶されるプログラム及びデータは、制御部11が通信部13を介してネットワークN経由で外部装置からダウンロードして記憶部12に記憶してもよい。
図3は、対象物認識モデル12aの構成例を示す模式図である。本実施形態の対象物認識モデル12aは、例えば図3に示すようなR−CNN(Regions with Convolution Neural Network)モデルで構成される。図3に示す対象物認識モデル12aは、領域候補抽出部12a1と、判別部12a2と、図示を省略するニューラルネットワークとを含む。ニューラルネットワークは、畳み込み層、プーリング層及び全結合層を含む。本実施形態の対象物認識モデル12aでは画像データ(入力画像)が入力される。入力画像は、例えばユーザ端末20で撮影されてサーバ10へ送信された撮影動画22aである。R−CNNでは、入力された画像から、複数の領域候補が抽出され、それぞれの領域候補の特徴量が、CNN(Convolutional Neural Network)により算出され、特徴量に基づいて、領域候補に何が映っているかが推定される。例えば図3に示す例では、入力画像中に撮影されている飲み物を含む領域候補に対して、予め学習済みの対象物から飲み物であることが推定される。
R−CNNによる対象物認識モデル12aにおいて、領域候補抽出部12a1は、入力画像から、様々なサイズの領域候補を抽出する。判別部12a2は、抽出された領域候補の特徴量を算出し、算出した特徴量に基づいて領域候補に映っている被写体が、予め学習済みのアイテムのいずれであるかを判別する。対象物認識モデル12aは、領域候補の抽出と判別とを繰り返し、入力された画像の各部分に写っている被写体を順次判別する。対象物認識モデル12aは、所定の閾値よりも高い確率で判別が行われた領域候補について、領域の範囲、判別結果及び判別確率を出力する。図3に示す例では、太実線で囲んだ領域が、飲み物(drink)であると判別される確率が99.2%である被写体が写っている領域であることが検出されている。対象物認識モデル12aは、判別部12a2が所定の閾値よりも高い確率で判別した場合に、判別結果(オブジェクトラベル)と、このときに領域候補抽出部12a1が抽出した領域候補を示す矩形のバウンディングボックスとを出力する。領域候補は、バウンディングボックスの左上の画素位置及びバウンディングボックスの2辺の長さ(画素数)によって規定されるが、バウンディングボックスの左上、左下、右上及び右下の画素位置によって規定されてもよい。なお、各画素位置は例えば入力画像の左上の画素位置を原点0とし、右方向をX座標軸方向とし、下方向をY座標軸方向とした座標(x,y)で示される。
対象物認識モデル12aは、画像データと、画像データ中に存在する対象物(アイテム)の領域及び対象物を示す情報(正解ラベル)とを含む教師データを用いて学習する。対象物認識モデル12aは、教師データに含まれる画像データが入力された場合に、教師データに含まれる正解ラベルが示す領域に、正解ラベルが示す対象物が写っていることを出力するように学習する。学習処理において対象物認識モデル12aは、入力値に対して行う所定の演算を規定する各種の関数の係数や閾値等のデータを最適化する。これにより、画像データが入力された場合に、画像データ中に存在する対象物(アイテム)を示す情報を出力するように学習された学習済みの対象物認識モデル12aが得られる。なお、対象物認識モデル12aの学習は、サーバ10で行われてもよく、他の学習装置で行われてもよい。対象物認識モデル12aが他の学習装置で学習される場合、サーバ10は、例えばネットワークN経由又は可搬型記憶媒体1a経由で学習装置から学習済みの対象物認識モデル12aを取得する。
対象物認識モデル12aは、R−CNNモデルのほかに、Fast R−CNN、Faster R−CNN、SSD(Single Shot Multibook Detector)、YOLO(You Only Look Once)等の任意の物体検出アルゴリズム(ニューラルネットワーク)で構成されていてもよい。また対象物認識モデル12aは、入力画像を画素単位で判別対象のアイテム(学習済みのアイテム)に分類するセマンティックセグメンテーションを実現するニューラルネットワークで構成されていてもよい。この場合、SegNetモデル、FCN(Fully Convolutional Network )モデル、U−Netモデル等のニューラルネットワークを利用することができる。また、対象物認識モデル12aはCNNモデルで構成されていてもよい。
図4は、サーバ10及びユーザ端末20に記憶されるDB12b,22bの構成例を示す模式図である。図4AはオブジェクトDB12bを、図4BはアクションDB22bをそれぞれ示す。オブジェクトDB12bは、サーバ10が対象物認識モデル12aを用いて認識した画像(画像データ)中の対象物(オブジェクト)に関する情報を記憶する。なお、オブジェクトDB12bは、例えばサーバ10がユーザ端末20から取得した画像データに対して対象物認識モデル12aを用いた対象物認識処理を行った場合に作成され、例えば動画中のシーン(フレーム)毎に作成される。図4Aに示すオブジェクトDB12bは、オブジェクトID列、位置情報列、サイズ情報列、オブジェクトラベル列、ラベル精度情報列、オブジェクトジャンル列、メーカ情報列、製品情報列等を含む。オブジェクトID列は、対象物認識モデル12aを用いて認識されたシーン中の対象物毎に割り当てられた識別情報を記憶する。オブジェクトDB12bは、オブジェクトIDに対応付けて、オブジェクトに関する各種の情報を記憶する。位置情報列及びサイズ情報列は、オブジェクトの領域(表示領域、撮影領域)を示す位置情報及びサイズ情報を記憶する。なお、対象物認識モデル12aは、例えば認識したオブジェクトを矩形のバウンディングボックスで把握しており、バウンディングボックスの左上の画素位置及びバウンディングボックスの2辺の長さ(画素数)によってオブジェクトの領域を示すことができる。よって、例えば画像の左上の画素位置を原点0とし、右方向をX座標軸方向とし、下方向をY座標軸方向として各画素位置を座標(x,y)で規定する場合、オブジェクトの領域を示す位置情報として、バウンディングボックスの左上の画素位置の座標(x0,y0)が記憶され、サイズ情報として、バウンディングボックスのX軸方向及びY軸方向の画素数が記憶される。オブジェクトラベル列は、オブジェクトの種類を示すラベル情報を記憶し、具体的には、対象物認識モデル12aが所定の閾値以上の判別確率で判別したオブジェクトの種類を示す情報を記憶する。なお、ラベル情報は、対象物認識モデル12aによる認識対象のアイテム(対象物)毎に予め設定されている。ラベル精度情報列は、ラベル情報が示すオブジェクトの種類であると判別すべき確率(精度情報)を記憶し、具体的には、対象物認識モデル12aから出力された判別確率を記憶する。オブジェクトジャンル列、メーカ情報列及び製品情報列のそれぞれは、オブジェクトのジャンルを示すジャンル情報、オブジェクトを製造又は販売する会社に関する情報、オブジェクトを説明するための製品情報を記憶する。ジャンル情報、メーカ情報及び製品情報は、対象物認識モデル12aによる認識対象のアイテム(対象物)毎に予め設定されて、例えば記憶部12に記憶されている。なお、対象物認識モデル12aが、入力画像中の被写体(対象物)の判別結果として、被写体のジャンル、メーカ又は製品を示す情報を出力するように構成されている場合、オブジェクトジャンル列、メーカ情報列及び製品情報列のそれぞれには、対象物認識モデル12aによる判別結果(出力情報)を記憶することができる。
オブジェクトDB12bに記憶されるオブジェクトIDは、制御部11が画像中のオブジェクトを認識した場合に、制御部11によって発行されて記憶される。オブジェクトDB12bに記憶されるオブジェクトID以外の各情報は、制御部11が対象物認識モデル12aを用いて画像中のオブジェクトを認識した場合に、対象物認識モデル12aからの出力情報に基づいて制御部11によって記憶される。オブジェクトDB12bの記憶内容は図4Aに示す例に限定されず、画像中のオブジェクトに関する各種の情報を記憶してもよい。また、オブジェクトDB12bは、図4Aに示すようにシーン(フレーム)毎に作成される構成のほかに、1つの動画に対して1つのオブジェクトDB12bが作成される構成としてもよい。この場合、オブジェクトDB12bは、図4Aに示す各列に加えて、シーン毎に割り当てられた識別情報を記憶するシーンID列を有する。また、オブジェクトDB12bは、オブジェクトジャンル列、メーカ情報列及び製品情報列を有していなくてもよく、対象物認識モデル12aからの出力情報(本実施形態では位置情報、サイズ情報、オブジェクトラベル及びラベル精度情報)が記憶されていればよい。
アクションDB22bは、画像中の対象物(オブジェクト)に対して設定されたアクションであり、画像の再生中に各対象物が選択操作された場合に実行すべきアクションに関する情報を記憶する。なお、アクションDB22bは、ユーザ端末20が画像中の対象物に対してアクションの設定処理を行った場合に作成され、例えば動画中のシーン(フレーム)毎に作成される。図4Bに示すアクションDB22bは、オブジェクトID列、マーカ情報列、アクションID列、アクションクラス列、URL(Uniform Resource Locator)名列、URL列、URL情報列、説明情報列、アクション名例等を含む。オブジェクトID列は、シーン中の対象物毎に割り当てられた識別情報を記憶し、識別情報にはオブジェクトDB12bに登録されたオブジェクトIDが用いられる。アクションDB22bは、オブジェクトIDに対応付けて、オブジェクトに設定されたアクションに関する各種の情報を記憶する。マーカ情報列は、画像の再生中に対象物に付加して表示するマーカに関する情報を記憶し、例えば円形マーカ又は四角形マーカを示す情報と、マーカの大きさを示す情報(例えば大/中/小等)とを記憶する。アクションID列及びアクションクラス列のそれぞれは、対象物に設定されたアクションに割り当てられた識別情報、及びアクション内容を示す情報を記憶する。アクション内容は例えばURLのリンク(URL-link)、対象物に関する説明情報の表示等がある。URL名列、URL列及びURL情報列のそれぞれは、アクション内容(アクションクラス)にURLのリンクが設定された場合に、設定されたURLに付与されている名称、URL、URLで提供される情報又はサービス等に関する情報を記憶する。説明情報列は、アクション内容に説明情報の表示が設定された場合に、表示すべき説明情報、具体的には対象物を説明するための情報を記憶する。なお、対象物に設定されるアクションは、URL(ウェブサイト)のリンク及び説明情報の表示に限定されない。例えば、対象物の購買が可能なEC(Electronic Commerce )サイトへのリンク、対象物に対応するSNSへのリンク、対象物に関するキャンペーンページへのリンク、ECサイトでの購買手続の案内、対象物に関連する商品等の情報の表示、対象物に関連するアプリケーションプログラムの実行、対象物に対応する地図の表示、対象物に応じたクーポン情報の提供、スタンプラリー及びクイズ等の提供、電話の発信、対象物をお気に入り情報に登録するお気に入り登録等、種々のアクションが対象物に設定されてもよい。アクションDB22bは、設定されるアクションの種類に応じて、それぞれのアクション内容を記憶するアクション情報列を有していてもよい。アクション名列は、アクションを識別するために付与されたアクションの名前を記憶する。
アクションDB22bに記憶されるオブジェクトIDは、制御部21が画像中の対象物に対するアクションの設定指示を受け付けた場合に、制御部21によってオブジェクトDB12bから読み出して記憶される。アクションDB22bに記憶されるオブジェクトID以外の各情報は、制御部21が画像中の対象物に対してマーカの情報及びアクションの情報を受け付けた場合に、受け付けた各情報が制御部21によって記憶される。アクションDB22bの記憶内容は図4Bに示す例に限定されず、画像中の対象物に設定されるアクションに関する各種の情報を記憶してもよい。また、アクションDB22bも、図4Bに示すようにシーン(フレーム)毎に作成される構成のほかに、1つの動画に対して1つのアクションDB22bが作成される構成としてもよい。この場合、アクションDB22bは、図4Bに示す各列に加えて、シーン毎に割り当てられた識別情報を記憶するシーンID列を有する。
本実施形態の情報処理システム100では、ユーザ端末20が、撮影動画22aに対してアクションDB22bを作成し、作成したアクションDB22bを撮影動画22aに付加してサーバ10にアップロードする。サーバ10は、アクションDB22bが付加された撮影動画22aをユーザ端末20から受信し、公開用の動画として、記憶部12の公開動画DB12cに記憶する。即ち、公開動画DB12cには、ユーザ端末20から受信した、アクションDB22bが付加された撮影動画22aが記憶される。なお、公開用の動画は、ネットワークN経由でサーバ10にアクセスできる全てのユーザ(ユーザ端末20)を公開対象とした動画であってもよく、閲覧権限を有するユーザのみを公開対象とした動画であってもよい。
以下に、本実施形態の情報処理システム100における各装置が行う処理について説明する。図5はアクションの設定処理手順の一例を示すフローチャート、図6及び図7はユーザ端末20における画面例を示す模式図である。図5では左側にユーザ端末20が行う処理を、右側にサーバ10が行う処理をそれぞれ示す。以下の処理は、ユーザ端末20の記憶部22に記憶してある制御プログラム22Pに従って制御部21によって実行されると共に、サーバ10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。なお、以下の処理の一部を専用のハードウェア回路で実現してもよい。
本実施形態の情報処理システム100において、ユーザは、例えばユーザ端末20を用いて撮影した動画(動画データ)をネットワークN経由で公開したい場合、動画アプリ22APを実行して撮影動画22aをサーバ10にアップロード(送信)する。その際、ユーザは、ユーザ端末20に動画アプリ22APを実行させて、撮影動画22a中の対象物に対して所望のアクションを設定する処理を行う。
ユーザ端末20の制御部21は、入力部24を介して動画アプリ22APの実行指示を受け付けた場合、動画アプリ22APを起動する。制御部21は、動画アプリ22APを起動し、サーバ10が公開するいずれかの動画を閲覧する指示を入力部24にて受け付けた場合、指定された公開動画をサーバ10からダウンロードして表示部25に表示する。これにより、ユーザ端末20のユーザは、サーバ10が公開している公開動画を閲覧できる。また制御部21は、記憶部22に記憶してあるいずれかの撮影動画22aをサーバ10にアップロードする指示を入力部24にて受け付けた場合、指定された撮影動画22aをサーバ10にアップロード(送信)する。これにより、サーバ10は、ユーザ端末20からアップロードされた(受信した)撮影動画22aを記憶部12(公開動画DB12c)に記憶し、記憶された撮影動画22a(公開動画)はネットワークN経由で公開される。更に制御部21は、撮影動画22a中の対象物に対してアクションを設定する処理の実行指示を入力部24にて受け付けた場合、撮影動画22aに対するアクション設定処理を行い、アクションDB22bを生成する。
ユーザ端末20の制御部21は、撮影動画22aに対するアクション設定処理の実行指示を、入力部24を介して受け付けたか否かを判断し(S11)、受け付けていないと判断した場合(S11:NO)、他の処理を行いつつ待機する。アクション設定処理の実行指示を受け付けたと判断した場合(S11:YES)、ユーザ端末20(端末装置)の制御部21は、アクション設定処理の処理対象である撮影動画22aを記憶部22から読み出してサーバ10へ送信する(S12)。サーバ10の制御部11(取得部)は、ユーザ端末20が送信した撮影動画22aを通信部13にて受信し、受信した撮影動画22aを記憶部12に記憶する。次に制御部11は、記憶部12に記憶した撮影動画22aをシーン(フレーム)毎に分割し、シーン画像(1枚の画像)を抜き出す(S13)。
制御部11(特定部)は、抜き出したシーン画像に基づいて、シーン画像中に存在するオブジェクト(アイテム)を特定する(S14)。本実施形態では、制御部11は、シーン画像を対象物認識モデル12aに入力し、対象物認識モデル12aから出力された情報(オブジェクトの領域、オブジェクトラベル及び判別確率)に基づいて、シーン画像中のオブジェクトを特定する。例えば制御部11は、対象物認識モデル12aが出力したオブジェクトラベルを、シーン画像中のオブジェクトの種類を示す情報に特定する。オブジェクトを特定した場合、制御部11は、このシーン画像に対してオブジェクトDB12bを生成し、特定したオブジェクトに関する情報をオブジェクトDB12bに記憶する(S15)。具体的には、制御部11は、特定したオブジェクトに対してオブジェクトIDを発行し、オブジェクトIDに対応付けて、特定したオブジェクトの領域を示す位置情報及びサイズ情報、オブジェクトの種類を示すラベル情報及び判別確率(ラベル精度情報)、オブジェクトのジャンル、メーカの情報、及び製品情報等をオブジェクトDB12bに記憶する。
制御部11は、ステップS13で抜き出したシーン画像に対して、対象物認識モデル12aを用いて認識できる全てのオブジェクトを特定し、各オブジェクトの情報をオブジェクトDB12bに記憶する。そして、制御部11は、このシーン画像に対して生成したオブジェクトDB12bを記憶部12から読み出し、シーンIDと共にユーザ端末20へ送信する(S16)。このとき、制御部11は、オブジェクトDB12bに記憶した各オブジェクトの情報から、ラベル精度情報が所定値(例えば70%)未満であるオブジェクトの情報を削除してユーザ端末20へ送信してもよい。この場合、ラベル精度情報が所定値以上であるオブジェクトの情報のみが記憶されたオブジェクトDB12bをユーザ端末20へ送信することができる。ユーザ端末20は、オブジェクトDB12bに基づいて、各シーン画像中のオブジェクトに対してオブジェクトであることを示す対象物マークを付加するが、ラベル精度情報が所定値未満であるオブジェクトの情報をオブジェクトDB12bから削除することにより、判別精度が低いオブジェクトを対象物マークの付加対象から除外できる。
サーバ10の制御部11は、ユーザ端末20から送信されてくる撮影動画22aの受信を終了したか否かを判断しており(S17)、終了していないと判断した場合(S17:NO)、ステップS13の処理に戻り、順次受信する撮影動画22aに対して、ステップS13〜S16の処理を行う。なお、1つのシーン画像中にオブジェクトが特定された場合、このオブジェクトについては、オブジェクトの画像をテンプレートとして抽出しておき、以降のシーン画像に対して、テンプレートマッチングによって追跡することによって、以降のシーン画像中のオブジェクトを特定する。具体的には、サーバ10の制御部11は、シーン画像から特定したオブジェクトの画像をテンプレートとして記憶部12に記憶しておき、次のシーン画像を抜き出し(S13)、抜き出したシーン画像に、記憶部12に記憶したテンプレートに一致する領域が有るか否かを検索する。テンプレートに一致する領域がある場合、制御部11は、この領域を、シーン画像中のオブジェクトの領域に特定し(S14)、特定したオブジェクトに関する情報をオブジェクトDB12bに記憶する(S15)。ここで特定されるオブジェクトは、前のシーン画像で既に特定済みのオブジェクトであり、異なるシーン画像における同一のオブジェクトに対しては同一のオブジェクトIDを用いてもよい。なお、制御部11は、次に抜き出したシーン画像についても、シーン画像を対象物認識モデル12aに入力し、対象物認識モデル12aからの出力情報に基づいてシーン画像中のオブジェクトを特定してもよい。この場合、次のシーン画像から特定したオブジェクトが、直前のシーン画像から特定したオブジェクトと同一であるか否かを判断し、同一である場合に同一のオブジェクトIDを付与し、同一のオブジェクトとして追跡してもよい。例えば、前後のシーン画像において対象物認識モデル12aによって特定されたオブジェクトラベルが同一であるか否かに応じて、前後のシーン画像から特定されたオブジェクトが同一であるか否かを判断することができる。制御部11は、追跡中のオブジェクトがシーン画像中からなくなるまで追跡処理を行う。このような処理により、サーバ10の制御部11は、シーン画像に基づいて、一旦特定したオブジェクト(対象物領域)をトラッキングするトラッキング部として機能する。よって、制御部11(送信部)は、トラッキングした結果(次のシーン画像におけるオブジェクトに関する情報)を通信部13からユーザ端末20へ送信する。
ユーザ端末20の制御部21は、アクション設定処理の実行指示を受け付けた場合、処理対象の撮影動画22aをサーバ10へ送信すると共に表示部25に表示する再生処理を開始する。そして、制御部21は、サーバ10が送信したオブジェクトDB12bを受信した場合、受信したオブジェクトDB12bに記憶してある各情報に基づく対象物マークを撮影動画22aに重畳させて表示する(S18)。具体的には、制御部21は、サーバ10からシーンIDが付加されたオブジェクトDB12bを受信しており、シーンIDが示すシーン画像中のオブジェクトに対して、オブジェクトであることを示す対象物マークを付加するためのマーク情報をオブジェクトDB12bから読み出す。より具体的には、制御部21は、オブジェクトDB12bから各オブジェクトの位置情報及びサイズ情報と、オブジェクトラベル及びラベル精度情報とを読み出す。このとき、制御部21は、オブジェクトDB12bに記憶した各オブジェクトの情報から、ラベル精度情報が所定値(例えば70%)以上であるオブジェクトの情報のみを読み出してもよい。そして、制御部21(付加部)は、表示部25に表示する動画において、各シーンIDに対応するシーン画像に、各シーンIDのオブジェクトDB12bから読み出したマーク情報に基づく対象物マークを付加して表示する。
図6Aは対象物マークOMが重畳表示された画像の例を示す。図6Aでは、飲み物がオブジェクトとして特定されており、オブジェクトを示す対象物マークOMが画像に付加して表示されている。図6Aに示す対象物マークOMは、オブジェクトDB12bから読み出したオブジェクトの位置情報及びサイズ情報に基づいて、オブジェクトの領域を囲むように表示されたバウンディングボックスである。なお、対象物マークOMは、画像中のどの被写体がオブジェクトであるかが分かるマークであれば、バウンディングボックスに限定されず、例えばオブジェクトのエッジを縁取るマークであってもよく、オブジェクトの一部を指し示すマークであってもよい。また対象物マークOMは、図6Bに示すように、オブジェクトの領域を示すバウンディングボックスに加え、オブジェクトDB12bから読み出したオブジェクトラベル及びラベル精度情報を表示してもよい。なお、図6A及び図6Bに示すシーン画像には、1つの対象物マークOMが付加されているが、オブジェクトDB12bに複数のオブジェクトの情報が記憶してある場合、複数の対象物マークOMが付加される。また、シーン画像から各オブジェクトの領域を抽出し、シーン画像(動画)とは別に各オブジェクトを表示するように構成されていてもよい。この場合、制御部21は、オブジェクトDB12bから読み出した各オブジェクトの位置情報及びサイズ情報に基づいて、シーン画像から各オブジェクトの領域を抽出し、抽出した各オブジェクトを、予め用意されている領域に表示することにより、シーン画像中の各オブジェクトを一覧表示してもよい。
ユーザ端末20は、サーバ10から各シーン画像に対応するオブジェクトDB12bを受信しており、各シーン画像のオブジェクトDB12bの記憶情報に基づいて対象物マークOMを撮影動画22aに重畳表示させることにより、動画中のオブジェクトに対してオブジェクトをトラッキングするように対象物マークOMを重畳表示させることができる。ユーザ端末20のユーザは、表示部25に表示された動画(シーン画像)中に付加された対象物マークOMに基づいて、アクションを設定したいオブジェクトを入力部24にて選択する。ユーザ端末20の制御部21(対象物受付部)は、入力部24を介して、いずれかのオブジェクトに対する選択(指定)を受け付けたか否かを判断する(S19)。具体的には、ユーザ端末20は、ユーザが指定した操作位置が、いずれのオブジェクトの対象物マークOMの領域内であるかを判断し、操作位置が含まれる対象物マークOMのオブジェクトに対する選択を受け付けたと判断する。いずれかのオブジェクトに対する選択を受け付けていないと判断した場合(S19:NO)、ユーザ端末20は、ステップS23の処理に移行する。いずれかのオブジェクトに対する選択を受け付けたと判断した場合(S19:YES)、ユーザ端末20は、選択されたオブジェクトに対してアクションを設定するためのアクション受付画面を表示部25に表示する(S20)。ユーザ端末20は、例えば図7Aに示すアクション受付画面を表示する。
図7Aは、新規に登録するアクションの内容を受け付ける受付画面例を示し、図7Aに示す画面は、動画中のオブジェクトに付加すべきマーカの種類を選択するためのマーカ選択ボタン25aを有する。図7Aに示すマーカ選択ボタン25aは、大中小の3種類の四角形マーカ及び大中小の3種類の円形マーカを含む6種類のマーカのいずれかを選択できるように構成されている。なお、選択可能なマーカの形状及び大きさはこれらに限定されない。また、図7Aに示す画面は、設定すべきアクションの内容を指定するためのアクション入力欄25bを有し、アクション入力欄25bは、アクションの種類を指定するための種類入力欄25baと、アクションの内容を入力するための内容入力欄25bbと、アクション名を入力するための名前入力欄25bcとを有する。種類入力欄25baは、URLのリンク、説明情報の表示、ECサイトへのリンク、SNSへのリンク等、アクションの種類を選択するためのプルダウンメニューが設定してある。内容入力欄25bbは、アクションの種類としてURLのリンク、ECサイトへのリンク、SNSへのリンク等が指定された場合、リンクを設定するURLの入力を受け付ける。また内容入力欄25bbは、アクションの種類として説明情報の表示が指定された場合、表示すべき説明情報の入力を受け付ける。名前入力欄25bcは、各アクションを識別するためのアクション名の入力を受け付ける。本実施形態では、一度登録したアクションを再利用することができ、図7Aに示す画面は、既に登録済みのアクション(過去に登録されたアクションの履歴)から、設定すべきアクションを選択する選択モード(登録済みアクション)と、新規にアクションを登録する登録モード(新規アクション)とを切り替えるためのラジオボタンを有する。図7Aに示す画面においてラジオボタンにて登録済みアクションが選択された場合、ユーザ端末20は、図7Bに示す画面を表示する。図7Bに示す画面は、既に登録されてアクションDB22bに記憶してあるアクションのアクション名を表示し、各アクションのリンクが設定してあるアクション選択ボタン25dを有する。またユーザ端末20は、検索キーワードを用いて登録済みのアクションから所望のアクションを検索できるように構成してあり、図7Bに示す画面は検索キーワードの入力欄25eを有する。入力欄25eに検索キーワードが入力された場合、ユーザ端末20は、アクションDB22bの記憶内容に基づいて、検索キーワードに合致するアクションを抽出し、抽出したアクションのアクション名をアクションDB22bから読み出して表示する。なお、アクション選択ボタン25dには、ユーザ端末20のアクションDB22bに記憶してあるアクション(リンク)だけでなく、サーバ10から取得したアクションのリンクを表示してもよい。例えばサーバ10が各ユーザ端末20で登録されたアクションの情報を収集する構成を有する場合、ユーザ端末20は、サーバ10に記憶してあるアクションの情報(アクション名及びリンク)を取得してアクション選択ボタン25dに表示できる。これにより、他のユーザが設定したアクションを利用することができ、アクションを設定する際のユーザの操作負担を軽減できる。また、入力欄25eに検索キーワードが入力された場合、ユーザ端末20は、アクションDB22bの記憶内容だけでなく、サーバ10が記憶するアクションから、検索キーワードに合致するアクションを抽出し、抽出したアクションのアクション名をアクションDB22b又はサーバ10から取得して表示してもよい。アクション選択ボタン25dを介していずれかの登録済みアクションが選択された場合、ユーザ端末20は、選択されたアクションの情報をアクションDB22b又はサーバ10から取得する。そしてユーザ端末20は、表示画面を、図7Aに示す画面に戻し、アクションDB22b又はサーバ10から取得したアクションの情報(アクションの種類、内容及びアクション名)を追加して表示する。なお、このとき、ラジオボタンは登録済みアクションが選択されている。また、登録済みのアクションから選択したアクションであっても、図7Aに示す画面において、アクションの内容及びアクション名を変更することができ、変更後のアクションを登録(新規登録)したい場合、ユーザはラジオボタンにて新規アクションを選択しておけばよい。
図7Aに示す画面は、入力された内容でアクションの登録(設定)を指示するための登録ボタン25cを有する。ユーザ端末20は、入力部24を介して登録ボタン25cが操作されたか否かに応じて、アクションの指定を受け付けたか否かを判断しており(S21)、受け付けていないと判断した場合(S21:NO)、アクションの指定を受け付けるまで待機する。アクションの指定を受け付けたと判断した場合(S21:YES)、ユーザ端末20の制御部21(アクション受付部)は、アクション受付画面を介して入力されたアクションに関する情報(アクション情報)を受け付け、受け付けたアクションに関する情報(アクション情報)をアクションDB22bに記憶する(S22)。具体的には、ユーザ端末20は、ステップS19で選択を受け付けたオブジェクトについて、このオブジェクトのシーン画像に対してアクションDB22bを生成する。そしてユーザ端末20は、このオブジェクトのオブジェクトIDに対応付けて、アクション受付画面を介して受け付けたマーカの情報(マーカ情報)及びアクションに関する情報をアクションDB22bに記憶する。なお、ユーザ端末20は、新規のアクションが設定された場合、アクションIDを発行し、発行したアクションID、アクションの種類(アクションクラス)、アクションの内容(URL名、URL、URL情報、説明情報等)、アクション名を対応付けてアクションDB22bに記憶する。なお、アクションに関する情報(アクションID、アクションクラス、URL名、URL、URL情報、説明情報、アクション名)を別のDBに記憶し、アクションDB22bには、オブジェクトIDに対応付けてマーカ情報及びアクションIDのみを記憶する構成としてもよい。なお、ユーザ端末20は、オブジェクトに対応するマーカ情報及びアクション情報を記憶した後、設定されたマーカ及びアクションをプレビュー表示するように構成されていてもよい。
ユーザ端末20は、処理対象の撮影動画22aの再生処理が終了したか否かを判断しており(S23)、終了していないと判断した場合(S23:NO)、ステップS12の処理に戻り、撮影動画22aのサーバ10への送信を継続する。撮影動画22aの再生処理が終了したと判断した場合(S23:YES)、ユーザ端末20の制御部21(対応付け部)は、撮影動画22aに、サーバ10から受信したオブジェクトDB12b及び生成したアクションDB22bを付加することにより、撮影動画22aにアクションを設定する(S24)。これにより、各シーン画像中のオブジェクトに、ユーザによって指定されたアクションが設定された撮影動画22aを生成できる。そしてユーザ端末20は、各オブジェクトにアクションが設定された撮影動画22aをサーバ10へ送信し(S25)、処理を終了する。サーバ10は、ユーザ端末20が送信した撮影動画22aを受信し、受信した撮影動画22aを公開用の動画データとして公開動画DB12cに記憶し(S26)、処理を終了する。具体的には、サーバ10は、オブジェクトDB12b及びアクションDB22bが付加された撮影動画22aを公開動画DB12cに記憶する。
上述した処理により、ユーザ端末20を用いて取得した撮影動画22aに対して、サーバ10が対象物認識モデル12aを用いてオブジェクトを認識し、認識したオブジェクトのうちで、ユーザが指定したオブジェクトに対してユーザが所望するアクションを設定することができる。なお、上述した処理において、サーバ10は、ユーザ端末20から受信した撮影動画22aをシーン画像に分割し、例えば1秒間に1枚のシーン画像について、ステップS14〜S17の処理を行う構成でもよい。この場合、サーバ10が行うアクション設定処理における処理対象のデータ量を削減でき、高速での処理を実現できる。また、上述した処理において、ユーザ端末20が、撮影動画22aをシーン画像に分割し、例えば1秒間に1枚のシーン画像を抜き出してサーバ10へ送信してもよい。このようにユーザ端末20からサーバ10へ送信される撮影動画22aを間引くことにより、撮影動画22aの送信データを削減でき、また、サーバ10で処理されるデータ量を削減でき、高速でのアクション設定処理を実現できる。更に、上述した処理では、ユーザ端末20は、撮影動画22aを再生しつつ、サーバ10から受信するオブジェクトDB12bに基づいて対象物マークOMを撮影動画22aに付加する構成であるが、このような構成に限定されない。例えば、ユーザ端末20からサーバ10へ一旦撮影動画22aが送信され、サーバ10でオブジェクトの特定処理が行われ、全シーン画像に対するオブジェクトDB12bがまとめてユーザ端末20へ送信されてもよい。この場合、ユーザ端末20は、全シーン画像に対するオブジェクトDB12bを受信した後に、撮影動画22aを再生しつつ、受信したオブジェクトDB12bに基づく対象物マークOMを付加して表示する処理を行ってもよい。また、ユーザ端末20は、撮影を行いつつ、撮影によって得られた撮影動画22aを逐次サーバ10へ送信してもよい。この場合、撮影を行いながら撮影動画22aに、サーバ10で特定されたオブジェクトを示す対象物マークOMを重畳表示させることができる。また本実施形態において、撮影動画22a中のオブジェクトの特定処理は、ユーザ端末20で行われてもよい。この場合、例えばユーザ端末20が対象物認識モデル12aを有し、対象物認識モデル12aを用いて各シーン画像中のオブジェクトを特定する。このような構成においても同様の効果が得られる。
次に、上述した処理によってシーン画像中のオブジェクトにアクションが設定された公開用動画(撮影動画22a)をユーザ端末20を用いて閲覧する際に各装置が行う処理について説明する。図8は公開用動画の再生処理手順の一例を示すフローチャート、図9はユーザ端末20における画面例を示す模式図である。図8では左側にユーザ端末20が行う処理を、右側にサーバ10が行う処理をそれぞれ示す。なお、図8に示すユーザ端末20は、図5に示すユーザ端末20と同じ端末であってもよく、異なる端末であってもよい。以下の処理の一部を専用のハードウェア回路で実現してもよい。
本実施形態の情報処理システム100において、ユーザは、サーバ10がネットワークN経由で公開している動画を閲覧(視聴)したい場合、ユーザ端末20を用いて動画アプリ22APを実行し、閲覧したい動画(動画データ)をサーバ10からダウンロード(受信)する。ユーザ端末20は、入力部24を介して動画アプリ22APの実行指示を受け付けた場合、制御部21が動画アプリ22APを起動する。ユーザ端末20は、動画アプリ22APを起動した場合、サーバ10が公開するいずれかの動画に対する閲覧指示を入力部24にて受け付けたか否かを判断し(S31)、閲覧指示を受け付けていないと判断した場合(S31:NO)、他の処理を行いつつ待機する。
いずれかの公開動画に対する閲覧指示を受け付けたと判断した場合(S31:YES)、ユーザ端末20は、閲覧指示された公開動画(動画データ)をサーバ10に要求する(S32)。サーバ10は、ユーザ端末20から公開動画を要求された場合、要求された公開動画を公開動画DB12cから読み出し、読み出した公開動画を要求元のユーザ端末20へ送信する(S33)。なお、公開動画は、ユーザ端末20でオブジェクトDB12b及びアクションDB22bが付加された撮影動画22aである。
ユーザ端末20は、サーバ10から公開動画をダウンロード(受信)した場合、記憶部22に一旦記憶し、記憶部22に記憶した公開動画から各シーン画像に対応するオブジェクトDB12b及びアクションDB22bを読み出す(S34)。またユーザ端末20は、読み出したオブジェクトDB12b及びアクションDB22bから各オブジェクトのオブジェクト情報を読み出す(S35)。ユーザ端末20は、公開動画に含まれる動画データ(撮影動画22a)を表示部25に表示しつつ、撮影動画22aの各シーン画像に、ステップS35で読み出したオブジェクト情報に基づくマーカを重畳表示する(S36)。具体的には、ユーザ端末20は、各シーンIDに対応するオブジェクトDB12bから位置情報及びサイズ情報を読み出し、アクションDB22bからマーカ情報を読み出す。そして、ユーザ端末20は、表示する撮影動画22aにおいて、各シーンIDに対応するシーン画像に、オブジェクトDB12bから読み出した位置情報及びサイズ情報に基づく位置に、アクションDB22bから読み出したマーカ情報が示すマーカを重畳表示させる。例えばユーザ端末20は、位置情報及びサイズ情報が示すオブジェクトの領域に対して、左上、左下、右上、右下、中央等の所定位置に、マーカ情報が示すマーカを表示させる。
図9AはマーカMが重畳表示された画像の例を示す。図9Aは、図6Aのシーン画像において対象物マークOMで示された飲み物のオブジェクトに対してアクションが設定された例を示しており、飲み物のオブジェクトにおける所定位置にマーカMが表示されている。図9Aに示すマーカMは、オブジェクトDB12bから読み出された位置情報及びサイズ情報が示すオブジェクトの領域の左下位置に表示されており、アクションDB22bから読み出されたマーカ情報が示す大きさ及び形状を有する。なお、マーカMの模様は任意の模様を用いることができるが、例えば各オブジェクトに設定されたアクションの種類(アクションクラス)に応じた模様を用いてもよい。これにより、ユーザ端末20のユーザは、サーバ10が公開している公開動画を閲覧できると共に、動画中のオブジェクトについて、アクションが設定されたオブジェクトをマーカMによって把握できる。なお、図9Aに示すシーン画像には1つのマーカMが付加されているが、アクションが設定されたオブジェクトが複数ある場合、複数のマーカMが付加される。
ユーザ端末20は、各シーン画像に対応するオブジェクトDB12b及びアクションDB22bから読み出した情報に基づいて、マーカMを公開動画に重畳表示させるので、マーカMは、動画中のオブジェクトをトラッキング(追尾)するように表示される。ユーザ端末20のユーザは、表示部25に表示された公開動画(シーン画像)中に付加されたマーカMに基づいて、設定されたアクションを実行したいオブジェクトを入力部24にて選択する。ユーザ端末20は入力部24を介して、いずれかのマーカMに対する選択を受け付けたか否かを判断しており(S37)、受け付けていないと判断した場合(S37:NO)、ステップS41の処理に移行する。いずれかのマーカMに対する選択を受け付けたと判断した場合(S37:YES)、ユーザ端末20は、選択されたマーカMに対応するオブジェクトに対して設定されたアクションを実行する(S38)。具体的には、ユーザ端末20は、選択されたマーカMに対応するオブジェクトに設定されたアクションの情報をアクションDB22bから読み出し、アクションクラス(アクションの種類)に応じた処理を行う。例えばアクションクラスが説明情報の表示である場合、ユーザ端末20は、アクションDB22bに記憶された説明情報を読み出し、例えば図9Bに示すように、読み出した説明情報を表示中の動画に重畳表示する。また、アクションクラスがURLのリンク、ECサイトへのリンク、SNSへのリンク等である場合、ユーザ端末20は、アクションDB22bに記憶されたURL名、URL、URL情報を読み出し、読み出した各情報を表示中の動画に重畳表示する。なお、アクションクラスがURLのリンク、ECサイトへのリンク、SNSへのリンク等である場合、ユーザ端末20は、マーカMが選択された時点で各リンク先にアクセスするように構成されていてもよい。
ユーザ端末20は、選択されたマーカMに対応するアクションを行った後、アクションに応じた処理の実行指示を入力部24にて受け付けたか否かを判断する(S39)。例えばアクションクラスがURLのリンク、ECサイトへのリンク、SNSへのリンク等である場合、ユーザ端末20がリンク先のURL等を表示中の動画に重畳表示するが、このときユーザは、表示されたリンク先にアクセスしたい場合、リンク先のURL等を選択操作する。この場合、ユーザ端末20は、リンク先のURL等へのアクセス(アクションに応じた処理)の実行指示を入力部24にて受け付ける。ユーザ端末20は、アクションに応じた処理の実行指示を受け付けていないと判断した場合(S39:NO)、ステップS41の処理に移行し、受け付けたと判断した場合(S39:YES)、実行指示された処理を実行する(S40)。例えば、リンク先のURL等へのアクセスの実行指示を受け付けた場合、ユーザ端末20は、リンク先のURL等にアクセスする処理を行う。ステップS41でユーザ端末20は、閲覧中の公開動画の再生処理が終了したか否かを判断しており(S41)、終了していないと判断した場合(S41:NO)、ステップS34の処理に戻り、サーバ10からダウンロードして記憶部22に記憶した公開動画における次のシーン画像について、ステップS34〜S40の処理を行う。公開動画の再生処理が終了したと判断した場合(S41:YES)、ユーザ端末20は、上述した処理を終了する。
上述した処理により、公開動画の閲覧中に、公開動画中のオブジェクトに付加されたマーカMが選択操作された場合に、所定のアクションを実行することができる。なお、動画中の各オブジェクト(アイテム)に対して設定できるアクションは、上述した例に限定されず、各種の処理をアクションとして用いることができる。本実施形態では、ユーザは公開動画を閲覧するだけでなく、閲覧中に気になった商品(オブジェクト)に関する情報を、動画中のオブジェクト(オブジェクトに付加されたマーカM)を選択するだけで得ることができ、また、ECサイトから購買することができる。よって、ユーザが欲しいと思ったタイミングでの購買が可能となり、公開動画の訴求力による販売促進が期待できる。また、ユーザは、アクションが設定されたオブジェクトを探しながら公開動画を観るので、閲覧中の集中力が増加することによって、公開動画による宣伝効果の向上が期待できる。
以下に、公開動画中のオブジェクトに設定されるアクションの他の例について説明する。図10は、アクションが設定された公開動画の表示例を示す模式図である。図10Aに示す例は、ファッションショー及びコレクション等で撮影された撮影動画中の衣装(オブジェクト)に対して、衣装の説明表示及び購買可能なECサイトへのリンクがアクションとして設定されている。このような公開動画によれば、ファッションショー及びコレクション等を観ながら気になった商品(衣装)に関する情報を得ることができ、気に入った商品を購買できるECサイトにアクセスすることができる。なお、図10Aに示す動画では、動画中のオブジェクト(衣装)に対してお気に入り登録がアクションとして設定されていてもよい。
図10Bに示す例は、調理中の状態を真上から撮影したレシピ動画に対して、料理を作る際の手順を示すレシピの表示がアクションとして設定されている。また、レシピ動画中の材料、調味料、調理器具等(オブジェクト)に対して、補足説明の表示及び購買可能なECサイトへのリンクがアクションとして設定されていてもよく、各手順に対して注意事項の表示がアクションとして設定されていてもよい。このようなレシピ動画によれば、調理中の状態を動画で見ながら、必要に応じてレシピを確認することができ、また、気になった材料、調味料、調理器具等に関する情報を得ることができ、気に入った材料、調味料、調理器具等を購買できるECサイトにアクセスすることができる。なお、図10Bに示す動画では、レシピの保存、動画中の各オブジェクトに対するお気に入り登録等がアクションとして設定されていてもよい。また、食品メーカ及び電機メーカ等が自社の商品及び製品を宣伝するために作成しているプロモーション動画に対して、動画中の各オブジェクトに各種のアクションを設定することにより、プロモーション動画を介して商品及び製品の購買に導くことができる。
図10Cに示す例は、講義中の板書の状態を撮影した講義動画に対して、講義内容を理解するための前提知識及び関連内容等の表示がアクションとして設定されている。また、講義動画中に英単語又は英文(オブジェクト)が含まれる場合、これらに対して日本語訳又は文法の解説等の表示がアクションとして設定されていてもよく、講義動画中に地図が含まれる場合、地図で表示されているエリアに関する情報の表示がアクションとして設定されていてもよい。このような講義動画によれば、講義の内容だけでなく、前提知識の復習、関連内容の学習を同時に行うことができ、また、学習者が自発的に復習又は学習することができるので、学習効果が期待できる。
図10Dに示す例は、観光地等の地域を紹介するために撮影された紹介動画に対して、観光地の地図の表示、名所及び建物に関する情報の表示等がアクションとして設定されている。また、紹介動画中の店舗(オブジェクト)に対して、店舗に関する情報の表示がアクションとして設定されていてもよく、観光地で行われているイベント、キャンペーン、スタンプラリー等の情報の表示、クーポンの提供案内、各種情報を公開しているURLへのリンク等がアクションとして設定されていてもよい。このような紹介動画によれば、観光地等の様子を動画で見ながら、気になった場所、建物、店舗等に関する情報を得ることができる。なお、図10Dに示す動画では、動画中の場所に行く経路の検索サイトへのリンク、旅行の予約サイトへのリンク、お気に入り登録等をアクションとして設定することもできる。また、紹介動画を見ながら気に入った場所、建物、店舗等をお気に入り登録しておくことにより、お気に入り登録した各場所を巡るツアーマップを自動生成することができ、また、自動生成されたツアーマップに合致したツアーの販売サイトを検索することができる。
本実施形態では、上述したように各種の公開動画に対して動画中のオブジェクトに各種のアクションを設定することができ、設定されたアクションによって各オブジェクトを宣伝又は紹介することができる。よって、公開動画の訴求力による販売促進が期待でき、公開動画による宣伝効果が期待できる。本実施形態では、動画中の各オブジェクトが把握(認識)されるので、動画中のオブジェクト毎に評価又はコメントできるように構成することができる。よって、動画の投稿者は、動画全体に対する評価及びコメントだけでなく、動画中のオブジェクト毎の評価及びコメントを得ることができ、各オブジェクトに対する閲覧者の反応を得ることができる。
本実施形態では、ユーザ端末20のユーザは、撮影動画22aをサーバ10へアップロードする際に、撮影動画22aに対してアクション設定処理を行う。なお、アクション設定処理は、ユーザ端末20に表示される撮影動画22a中の各オブジェクトに付加された対象物マークOMに対する選択操作と、設定したいアクションの指定とによって実現できる。よって、動画中のオブジェクト(アイテム)を抽出する際の専門知識を有する必要はなく、SNSを利用する一般的なユーザが手軽に、撮影動画22aに対するアクション設定処理を行うことができる。
本実施形態では、ユーザ端末20が、撮影動画22aを表示部25で再生しつつ、ユーザからの入力に従って撮影動画22a中のオブジェクトにアクションを設定する構成である。このほかに、ユーザ端末20は、ユーザからの入力を受け付けた場合に、入力された情報をサーバ10へ送信し、サーバ10で、撮影動画22a中のオブジェクトにアクションを設定する処理を行う構成としてもよい。この場合、ユーザ端末20が行う処理を削減でき、ユーザ端末20による処理負担を軽減できる。また、例えばサーバ10をクラウドサーバで実現する構成であれば、ユーザ端末20がクラウドサーバと情報の送受信を行うことにより、アクションが設定された撮影動画22aを得ることができる。また、本実施形態において、ユーザ端末20が、撮影動画22a中のオブジェクトを検出する処理を行う構成でもよい。この場合、ユーザ端末20による処理だけでアクションの設定を行うことができる。
本実施形態において、ユーザ端末20でアクションが設定された撮影動画22a中のオブジェクトを含む画像データと、設定されたアクションに関する情報とが対応付けてサーバ10(所定装置)へ送信されるように構成してもよい。例えば、ユーザ端末20が、動画中のオブジェクトに所望のアクションを設定した場合に、オブジェクトの画像データとアクション情報とを対応付けてサーバ10へ送信してもよい。このような構成を備えることにより、サーバ10で認識された動画中のオブジェクトのうちで、ユーザがアクションを設定したオブジェクトをサーバ10にフィードバックすることができる。よって、サーバ10は、実際にアクションが設定されたオブジェクトの画像データを、対象物認識モデル12aを再学習させる際の教師データに用いることができ、ユーザがアクションを設定する可能性の高いオブジェクトの認識精度を向上させることができる。
本実施形態では、動画の閲覧時にオブジェクトを示すマーカMがオブジェクトに重畳表示される構成である。具体的には、サーバ10で特定されたオブジェクトの領域に対して所定位置にマーカMが表示される構成である。このほかに、サーバ10で特定されたオブジェクトに対して、マーカMの表示位置を任意に指定できるように構成してもよい。例えば、動画中のオブジェクトと重ならない位置にマーカMを表示するように構成してもよい。また、動画の閲覧中に閲覧者が表示画面上をタッチ操作した場合に、タッチされた箇所にマーカMが設定されていれば、このマーカMに対応付けられているアクションを実行するように構成してもよい。この場合、動画の閲覧中はマーカMが表示されないので、ユーザはマーカMの表示によって動画の視聴を邪魔されず、動画の視聴に集中できる。また、隠しマーカとして設定することができ、この場合、ユーザは、アクションが設定された隠しマーカを探しながら動画を観るので、閲覧中の集中力が増加し、公開動画による宣伝効果の向上が期待できる。
(実施形態2)
動画中の任意の位置にアクションを登録できる情報処理システムについて説明する。本実施形態の情報処理システム100は、実施形態1の情報処理システム100の各装置10,20と同様の装置によって実現されるので、構成については説明を省略する。なお、本実施形態の情報処理システム100では、サーバ10は対象物認識モデル12aを備えていなくてもよく、動画中のオブジェクトを認識(特定)する処理を行わない構成でもよい。本実施形態の情報処理システム100では、ユーザ端末20は、動画中の任意の箇所(位置)の指定を受け付け、指定された任意の箇所に対して、指定されたアクションを設定する処理、任意の箇所にアクションが設定された動画データをサーバ10にアップロードする処理等を行う。本実施形態の情報処理システム100では、ユーザ端末20の記憶部22に記憶されるアクションDB22bの構成が実施形態1とは若干異なる。
図11は、実施形態2のアクションDB22bの構成例を示す模式図である。本実施形態のアクションDB22bは、画像中の任意の箇所(位置)に対して設定されたアクションであり、画像の再生中に各位置が選択操作された場合に実行すべきアクションに関する情報を記憶する。アクションDB22bは、ユーザ端末20が画像中の任意の位置に対してアクションの設定処理を行った場合に作成され、例えば動画中のシーン画像(フレーム画像)毎に作成される。図11に示すアクションDB22bは、図4Bに示すアクションDB22bと同様に、マーカ情報列、アクションID列、アクションクラス列、URL名列、URL列、URL情報列、説明情報列、アクション名例を含む。また、図11に示すアクションDB22bは、図4Bに示すアクションDB22bにおいてオブジェクトID列の代わりにマーカIDを含み、更に位置情報列を含む。マーカID列は、シーン画像中に設定されたマーカM毎に割り当てられた識別情報を記憶し、位置情報列は、シーン画像中に設定されたマーカMの表示位置を示す位置情報を記憶する。なお、位置情報は、例えば表示部25の表示領域の左上の画素位置を原点0とし、右方向をX座標軸方向とし、下方向をY座標軸方向とした場合の座標(x,y)で表される。本実施形態では、動画中に撮影されたオブジェクトは検出せず、動画中の任意の位置がマーカMの表示位置として指定されるので、アクションDB22bは、マーカIDに対応付けて、設定されたマーカMに関する情報と、各マーカに対応して設定されたアクションに関する情報とを記憶する。
アクションDB22bに記憶されるマーカIDは、制御部21が画像中の任意の位置に対するアクションの設定指示を受け付けた場合に、制御部21によって発行されて記憶される。アクションDB22bに記憶される位置情報及びマーカ情報は、制御部21が画像中の任意の位置に対して設定すべきマーカの情報を受け付けた場合に、受け付けた各情報が制御部21によって記憶される。アクションDB22bに記憶される他の各情報は、制御部21が画像中の任意の位置に対して設定すべきアクションの情報を受け付けた場合に、受け付けた各情報が制御部21によって記憶される。アクションDB22bの記憶内容は図11に示す例に限定されない。
本実施形態の情報処理システム100においても、ユーザ端末20が、撮影動画22aに対してアクションDB22bを作成し、作成したアクションDB22bを撮影動画22aに付加してサーバ10にアップロードする。よって、サーバ10がネットワークN経由で公開する動画データは、ユーザ端末20においてアクションDB22bが付加された撮影動画22aである。
以下に、本実施形態の情報処理システム100における各装置が行う処理について説明する。図12はアクションの設定処理手順の一例を示すフローチャート、図13及び図14はユーザ端末20における画面例を示す模式図である。図12では左側にユーザ端末20が行う処理を、右側にサーバ10が行う処理をそれぞれ示す。なお、以下の処理の一部を専用のハードウェア回路で実現してもよい。
本実施形態の情報処理システム100において、ユーザは、例えばユーザ端末20を用いて撮影した動画(撮影動画22a)をネットワークN経由で公開する際に、動画アプリ22APを実行させて、撮影動画22a中の任意の位置に対して所望のアクションを設定することができる。ユーザ端末20は、入力部24を介して動画アプリ22APの実行指示を受け付けた場合、制御部21が動画アプリ22APを起動する。動画アプリ22APを起動したユーザ端末20は、記憶部22に記憶してあるいずれかの撮影動画22aに対してアクションを設定する処理の実行指示を入力部24にて受け付けた場合、撮影動画22aに対するアクション設定処理を行ってアクションDB22bを生成する。
具体的には、ユーザ端末20は、いずれかの撮影動画22aに対するアクション設定処理の実行指示を受け付けた場合、処理対象の撮影動画22aを記憶部22から読み出して再生処理を開始する(S51)。ユーザ端末20は、図13に示すような設定画面を表示部25に表示し、設定画面中に撮影動画22aの再生画面を表示する。図13に示す設定画面は、撮影動画22aの再生領域(再生画面)と、撮影動画22aの再生処理に関する操作を受け付ける操作ボタン25fと、動画中に付加すべきマーカの種類を選択するためのマーカ選択ボタン25aとを有する。操作ボタン25fは、再生処理の実行、再生処理の停止、5秒又は10秒等の所定時間先にスキップする早送りの実行、5秒又は10秒等の所定時間前に戻す早戻しの実行、1.5倍速又は2倍速等の倍速再生の実行、逆再生の実行等を指示するための操作ボタンを有する。マーカ選択ボタン25aは、図7Aに示した画面中のマーカ選択ボタン25aと同じボタンである。
ユーザ端末20のユーザは、表示部25で再生された撮影動画22a(シーン画像)に対して、画像中のいずれかの位置にアクションを設定したい場合、まずマーカ選択ボタン25aを介して所望のマーカを選択する。ユーザ端末20は、設定画面中のマーカ選択ボタン25aを介して、いずれかのマーカの選択を入力部24にて受け付けたか否かを判断しており(S52)、マーカの選択を受け付けていないと判断した場合(S52:NO)、マーカの選択を受け付けるまで撮影動画22aの再生処理を継続する。いずれかのマーカの選択を受け付けたと判断した場合(S52:YES)、ユーザ端末20は、マーカ選択ボタン25aにおけるマーカの選択状態を表示する(S53)。具体的にはユーザ端末20は、選択されたマーカを他のマーカとは異なる態様で表示し、選択されたマーカがどのマーカであるかを明確に表示する。図13では中の大きさの円形マーカが選択されていることを表示している。
次にユーザは、設定画面中の再生領域において、マーカMを表示させたい位置を入力部24を介して指定する。なお、ユーザは、撮影動画22aの再生処理に伴う撮影動画22a中のオブジェクトの移動に合わせて、マーカMの表示位置を指定する。図14AはマーカMの表示位置の指定開始状態を示し、図14BはマーカMの表示位置の指定終了状態を示す。ユーザは、撮影動画22aの再生領域において、例えば図14B中に白抜き矢符で示すように、図14Aに示す位置から図14Bに示す位置までスライド操作を行うことにより、マーカMの表示位置を指定する。ユーザ端末20は、入力部24を介して、撮影動画22aの再生領域において、マーカMの表示位置の受付を開始したか否かを判断し(S54)、受付を開始していないと判断した場合(S54:NO)、受付を開始するまで待機する。
ユーザ端末20の制御部21(位置受付部)は、撮影動画22aの再生領域においてマーカMの表示位置の受付を開始したと判断した場合(S54:YES)、受け付けたマーカMの表示位置を示す位置情報をアクションDB22bに記憶する(S55)。具体的には、ユーザ端末20は、この時点で表示中のシーン画像に対するアクションDB22bを生成する。そしてユーザ端末20は、マーカIDを発行し、マーカIDに対応付けて、受け付けたマーカMの表示位置を示す位置情報をアクションDB22bに記憶する。ユーザ端末20は、マーカMの表示位置の受付を終了したか否かを判断し(S56)、終了していないと判断した場合(S56:NO)、順次表示されるシーン画像に対するアクションDB22bを生成し、各シーン画像に対して受け付けたマーカMの表示位置を示す位置情報をアクションDB22bに記憶する(S55)。マーカMの表示位置の受付を終了したと判断した場合(S56)、即ち、撮影動画22aの再生領域に対するユーザの操作が終了した場合、ユーザ端末20は、図7A及び図7Bに示すようなアクション受付画面を表示部25に表示する(S57)。なお、ここでのアクション受付画面は、図7A及び図7Bに示す画面において、マーカ選択ボタン25aを有しない構成である。
ユーザ端末20は、入力部24を介してアクション受付画面中の登録ボタンが操作されたか否かに応じて、アクションの指定を受け付けたか否かを判断しており(S58)、受け付けていないと判断した場合(S58:NO)、アクションの指定を受け付けるまで待機する。アクションの指定を受け付けたと判断した場合(S58:YES)、ユーザ端末20は、アクション受付画面を介して受け付けたアクションに関する情報(アクション情報)を、指定されたマーカMのマーカIDに対応付けてアクションDB22bに記憶する(S59)。なお、ユーザ端末20は、マーカMの表示位置が指定された全てのシーン画像に対応するアクションDB22bに、同じアクション情報を記憶する。
ユーザ端末20は、処理対象の撮影動画22aの再生処理が終了したか否かを判断しており(S60)、終了していないと判断した場合(S60:NO)、ステップS52の処理に戻り、撮影動画22aの再生処理を継続し、動画中の任意の位置に対するアクションの設定処理を継続する。なお、ユーザ端末20は、1つのアクションについて、動画中の任意の位置に設定されたマーカ情報及びアクション情報をアクションDB22bに記憶した後、設定されたマーカ及びアクションをプレビュー表示するように構成されていてもよい。
撮影動画22aの再生処理が終了したと判断した場合(S60:YES)、ユーザ端末20は、撮影動画22aに、生成したアクションDB22bを付加することにより、撮影動画22aにアクションを設定する(S61)。これにより、撮影動画22a中の任意の位置に、ユーザによって指定されたアクションが設定された撮影動画22aを生成できる。そしてユーザ端末20は、アクションが設定された撮影動画22aをサーバ10へ送信し(S62)、処理を終了する。またサーバ10は、ユーザ端末20から受信した撮影動画22aを公開用の動画データとして公開動画DB12cに記憶し(S63)、処理を終了する。なお、サーバ10は、アクションDB22bが付加された撮影動画22aを公開動画DB12cに記憶する。
上述した処理により、ユーザ端末20において撮影動画22aの任意の位置に、ユーザが所望するアクションを設定することができる。よって、アクションが設定された撮影動画22aを、サーバ10によってネットワークN経由で公開することができる。上述した処理によって撮影動画22a中の任意の位置にアクションが設定された公開用動画(撮影動画22a)についても、実施形態1と同様に、ユーザ端末20は図8に示す処理を行うことにより、サーバ10からダウンロードして閲覧する際に、図9Aに示すようにマーカMを付加して表示することができる。また、動画中のマーカMが選択操作された場合、図9Bに示すように、このマーカMに設定されたアクションを実行することができる。
なお、本実施形態の情報処理システム100では、ユーザ端末20がサーバ10からダウンロードする公開動画は、アクションDB22bのみが付加された撮影動画22aである。よって、ユーザ端末20は、図8中のステップS34では、各シーン画像に対応するアクションDB22bを公開動画から読み出し、ステップS35では、アクションDB22bから各マーカMのマーカに関する情報(位置情報及びマーカ情報)を読み出す。そして、ユーザ端末20は、ステップS36で、公開動画に含まれる動画データ(撮影動画22a)を表示部25に表示しつつ、撮影動画22aの各シーン画像に、読み出したマーカに関する情報に基づくマーカMを重畳表示させる。その他のステップは、実施形態1で説明した処理と同様である。
本実施形態では、上述したように動画(撮影動画22a)中の任意の位置に各種のアクションを設定することができる。よって、ユーザが表示したい箇所にマーカMを表示させることができ、動画中の任意の位置に写っているオブジェクトについて、設定されたアクションによって宣伝又は紹介することができる。また本実施形態においても、図10A〜図10Dに示すような各種の公開動画に対して、動画中の任意の位置にアクションを設定することができる。これにより、公開動画の訴求力による販売促進が期待でき、公開動画による宣伝効果が期待できる。また本実施形態では、サーバ10で動画中のオブジェクトを検出しないので、ユーザ端末20は、サーバ10で生成されるオブジェクトDB12bの受信を待つ必要がない。ユーザ端末20は、公開用の動画(撮影動画22a)を再生させつつ、ユーザから入力される情報に基づいてアクションを設定することができるので、処理が煩雑になることを抑制できる。また本実施形態では、公開用の動画を再生させつつマーカMの表示位置の指定を受け付けるので、マーカMが動画の再生に伴って移動するように設定された場合、マーカMは、動画中のオブジェクトをトラッキング(追尾)するように公開動画に重畳表示される。
また本実施形態では、上述した実施形態1と同様の効果が得られる。例えば、動画中に設定された各マーカM(アクション)に対して、各マーカMが示すオブジェクトに対して評価又はコメントできるように構成することができる。この場合、動画の投稿者は、動画全体に対する評価及びコメントだけでなく、動画中のマーカMが示すオブジェクト毎の評価及びコメントを得ることができ、各オブジェクトに対する閲覧者の反応を得ることができる。本実施形態においても、上述した実施形態1で適宜説明した変形例の適用が可能である。また、本実施形態の構成を実施形態1の情報処理システム100に適用し、実施形態1の情報処理システム100において、サーバ10で認識(検知)されたオブジェクトに対してマーカMを表示させる位置を任意に設定できるように構成してもよい。更に、本実施形態の構成と、上述した実施形態1の構成とを切り替え可能に構成してもよい。即ち、サーバ10で動画中のオブジェクトを特定する処理と、ユーザ端末20の入力部24を介してマーカMの表示位置を指定する処理とが切り替え可能に構成されていてもよい。
本実施形態において、動画中の任意の位置にアクションを設定する処理は、ユーザ端末20で再生される撮影動画22aの表示領域に対して、マーカMを付加したい位置を指定するためのスライド操作と、設定したいアクションの指定とによって実現できる。よって、SNSを利用する一般的なユーザが手軽に、撮影動画22aに対するアクション設定処理を行うことができる。
本実施形態では、ユーザ端末20は、ユーザが指定した動画中の任意の位置をマーカMの表示位置として受け付けるが、ユーザが指定した位置に撮影されている被写体を、アクションの登録対象のオブジェクトとして受け付けてもよい。この場合、ユーザ端末20は、表示部25で再生中の撮影動画22aにおいて、ユーザが任意の位置を指定した場合、指定された位置を含む領域において物体検知を行い、指定された位置の被写体を特定する。そして、ユーザ端末20は、特定した被写体(オブジェクト)に対して、ユーザが指定したアクションを設定する。なお、ここでの物体検知は、実施形態1のサーバ10と同様に対象物認識モデル12aを用いた処理によって行ってもよい。また、ユーザ端末20は、物体検知すべき処理対象の被写体の画像データを入力部24から受け付けておき、受け付けた画像データに基づいて、撮影動画22a中に所望の被写体を検出してもよい。このような構成とした場合、ユーザ端末20が特定したオブジェクトの画像データを、対象物認識モデル12aを再学習させるための教師データに用いることができる。例えば、ユーザ端末20が特定したオブジェクトに対して、ユーザがオブジェクトの名称、ラベル、ジャンル等を入力する構成とした場合、特定したオブジェクトの画像データと、ユーザが入力したオブジェクトの名称、ラベル、ジャンル等(正解ラベル)とを教師データに用いることができる。よって、ユーザ端末20は、このような教師データを、サーバ10等の所定の学習装置へ送信することにより、学習装置で対象物認識モデル12aの再学習を行うことができる。
(実施形態3)
実施形態2の変形例で、動画中の任意の位置にアクションを登録する際にマーカMの表示位置を指定するときに、動画の再生を一旦停止し、所定時間(例えば3秒間)のカウントダウンを行った後に動画の再生を再開し、再開した時点でマーカMの表示位置の指定を受け付ける情報処理システムについて説明する。本実施形態の情報処理システム100は、実施形態2の情報処理システム100の各装置10,20と同様の装置によって実現されるので、構成については説明を省略する。
図15は、実施形態3のアクションの設定処理手順の一例を示すフローチャート、図16はユーザ端末20における画面例を示す模式図である。図15に示す処理は、図12に示す処理においてステップS53,S54の間にステップS71〜S72を追加したものである。図12と同じステップについては説明を省略する。また図15では、図12中のステップS58〜S63の図示を省略している。
実施形態2と同様に、本実施形態のユーザ端末20は、いずれかの撮影動画22aに対するアクション設定処理の実行指示を受け付けた場合、処理対象の撮影動画22aを記憶部22から読み出して再生処理を開始する(S51)。なお、本実施形態のユーザ端末20は、図16に示すような設定画面を表示部25に表示し、設定画面中に撮影動画22aの再生画面を表示する。図16に示す設定画面は、図13及び図14に示す設定画面と同様の構成を有し、更にカウントダウンボタンを有する。カウントダウンボタンは、例えば3秒又は5秒等の所定時間のカウントダウンの実行を指示するためのボタンであり、カウントダウンする時間は変更できるように構成されていてもよい。本実施形態のユーザ端末20は、図16Aに示す設定画面において、マーカ選択ボタン25aを介していずれかのマーカの選択を受け付けた場合(S52:YES)、選択されたマーカを他のマーカとは異なる態様で表示する(S53)。
次にユーザは、図16Aに示す設定画面中の再生領域において、マーカMを表示させたい位置を入力部24を介して指定するが、このとき、所望のシーン画像からの再生処理を行う前に所定時間のカウントダウンを行いたい場合、カウントダウンボタンを操作する。具体的には、ユーザは、マーカMの表示位置を指定したいシーン画像を表示させた状態で撮影動画22aの再生処理を停止(一時停止)してカウントダウンボタンを操作する。ユーザ端末20は、カウントダウンボタンが操作された場合、操作時点から所定時間のカウントダウンを行い、カウントダウン終了後に撮影動画22aの再生処理を再開させる。よって、ユーザ端末20は、入力部24を介して設定画面におけるカウントダウンボタンが操作されることにより、カウントダウンの実行指示を受け付けたか否かを判断する(S71)。カウントダウンの実行指示を受け付けたと判断する場合(S71:YES)、ユーザ端末20は、所定時間のカウントダウンを実行する(S72)。ユーザ端末20は、図16Bに示すように、カウントダウンの残り時間を設定画面中に表示し、ユーザはカウントダウンが終了する前に、マーカMを表示させたい位置を入力部24にて指定しておく。ユーザ端末20は、カウントダウンの終了後、撮影動画22aの再生領域において、マーカMの表示位置の受付を開始したか否かを判断する(S54)。なお、ユーザ端末20は、カウントダウンの終了時点で入力部24を介して指定されている位置を、マーカMの表示位置の受付開始位置として受け付け(S54:YES)、受け付けたマーカMの表示位置を示す位置情報をアクションDB22bに記憶する(S55)。上述した処理により、撮影動画22aの再生処理を一旦停止し、所定時間のカウントダウン後に再開させることにより、ユーザが、撮影動画22a中の任意の位置をマーカMの表示位置に正確に指定できる。
カウントダウンの実行指示を受け付けていないと判断した場合(S71:NO)、ユーザ端末20は、ステップS72の処理をスキップし、ステップS54の処理に移行する。なお、本実施形態のユーザ端末20は、ステップS54において、マーカMの表示位置の受付を開始していないと判断した場合(S54:NO)、ステップS71の処理に戻る。その他のステップは、実施形態2で説明した処理と同様である。なお、図16Bに示す画面において、カウントダウンの残り時間は表示されなくてもよい。
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、撮影動画22aの再生中に、再生処理を一旦停止させて所定時間のカウントダウン後に再開させることができるので、ユーザは、撮影動画22a中の所望の位置をマーカMの表示位置として精度良く指定できる。また本実施形態においても、撮影動画22aの任意の位置に、ユーザが所望するアクションを設定することができ、アクションが設定された撮影動画22aを、サーバ10によってネットワークN経由で公開することができる。また、撮影動画22a中の任意の位置にアクションが設定された公開用動画において、実施形態1,2と同様に、ユーザ端末20は図8に示す処理を行うことにより、サーバ10からダウンロードして閲覧する際に、図9Aに示すようにマーカMを付加して表示することができる。また、動画中のマーカMが選択操作された場合、図9Bに示すように、このマーカMに設定されたアクションを実行することができる。
(実施形態4)
実施形態2の変形例で、動画中の任意の位置にアクションを登録する際に動画の再生速度を変更できる情報処理システムについて説明する。本実施形態の情報処理システム100は、実施形態2の情報処理システム100の各装置10,20と同様の装置によって実現されるので、構成については説明を省略する。
図17は、実施形態4の設定画面例を示す模式図である。図17に示す設定画面は、図13及び図14に示す設定画面と同様の構成を有し、更に撮影動画22aの再生速度の変更を受け付けるための再生速度変更バー25gを有する。再生速度変更バー25gは例えば、0.5倍速、0.8倍速、1倍速、1.2倍速、2倍速、4倍速、8倍速、16倍速等の設定が可能である。本実施形態のユーザ端末20は、図17に示すような設定画面を表示部25に表示することにより、設定画面中の再生速度変更バー25gを介して、撮影動画22aの再生速度の変更指示を受け付けることができる。ユーザ端末20は、再生速度変更バー25gを介して再生速度の変更指示を受け付けた場合、設定画面中の再生領域において再生される撮影動画22aの再生速度を、指定された再生速度に変更する。よって、ユーザ端末20は、変更した再生速度で撮影動画22aを再生させつつ、撮影動画22a(シーン画像)の任意の位置に対するマーカMの表示位置の指定を受け付ける。これにより、ユーザは、撮影動画22a中の任意の位置をマーカMの表示位置に指定する際に、動画の内容に応じて再生速度を変更することができる。よって、マーカMの表示位置を指定し易い状態で撮影動画22aを再生させることができる。例えば、撮影動画22a中のオブジェクトの移動速度が速い場合、再生速度を遅くすることによって、マーカMの表示位置をより正確に指定できる。また例えば、撮影動画22a中に長時間に亘って出現するオブジェクトに対してマーカM(アクション)を設定したい場合、再生速度を速くすることによって、このオブジェクトの出現シーンを早期に終了させることができる。オブジェクトの出現シーンを早期に終了させることにより、このオブジェクトに対してマーカMの表示位置を指定するための操作時間を短縮できる。
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、撮影動画22aの再生速度を変更できるので、ユーザは、マーカMの表示位置を指定し易い速度で撮影動画22aを再生させることができる。よって、ユーザは、撮影動画22a中の所望の位置をマーカMの表示位置として精度良く指定できる。本実施形態の構成は、上述した実施形態1,3の情報処理システム100にも適用でき、実施形態1,3の情報処理システム100に適用した場合であっても同様の効果が得られる。
(実施形態5)
実施形態1の変形例で、対象物マークOMに基づいていずれかのオブジェクトが選択された場合に、選択されたオブジェクトが、既にアクション登録済みのオブジェクトと同一又は関連(類似)するオブジェクトであれば、同じアクションを登録する情報処理システムについて説明する。本実施形態の情報処理システム100は、実施形態1の情報処理システム100の各装置10,20と同様の装置によって実現されるので、構成については説明を省略する。実施形態1と同様に、本実施形態の情報処理システム100では、サーバ10が動画(撮影動画22a)中のオブジェクトを認識(検知)してユーザ端末20に通知し、ユーザ端末20は、サーバ10で検知されたオブジェクトのいずれかに対してアクションを設定し、アクションを設定した動画データをサーバ10にアップロードする。
本実施形態の情報処理システム100では、ユーザ端末20において、アクションを設定すべきオブジェクトが選択された場合に、選択されたオブジェクトが、既にアクションが設定されたオブジェクトと同一又は関連するオブジェクトであるか否かを判断する。そして、ユーザ端末20は、既にアクションが設定されたオブジェクトと同一又は関連するオブジェクトである場合、同一のアクションを、選択されたオブジェクトに対して設定する。
以下に、本実施形態の情報処理システム100における各装置が行う処理について説明する。図18は実施形態5のアクションの設定処理手順の一例を示すフローチャート、図19はユーザ端末20における画面例を示す模式図である。図18に示す処理は、図5に示す処理においてステップS20の前にステップS81〜S83を追加したものである。図5と同じステップについては説明を省略する。また図18では、図5中のステップS11〜S17及びS24〜S26の図示を省略している。
本実施形態のユーザ端末20及びサーバ10は、実施形態1と同様に、ステップS11〜S19の処理を行う。そしてユーザ端末20は、再生中の撮影動画22aに重畳表示された対象物マークOMに基づいて、いずれかのオブジェクトに対する選択(指定)を受け付けたと判断した場合(S19:YES)、選択されたオブジェクトと同一又は関連するオブジェクトに対して既にアクションが登録されているか否かを判断する(S81)。即ち、ユーザ端末20は、選択されたオブジェクトが、既にアクションが登録されたオブジェクトと同一又は関連するオブジェクトであるか否かを判断する。具体的には、ユーザ端末20は、選択されたオブジェクトのオブジェクトジャンル、メーカ情報、製品情報等をオブジェクトDB12bから読み出し、読み出したオブジェクトジャンル、メーカ情報、製品情報等の少なくとも一部が一致するオブジェクトを、撮影動画22aの各シーン画像のオブジェクトDB12bから抽出する。更にユーザ端末20は、抽出したオブジェクトから、既にアクションが登録されているオブジェクトを特定する。具体的には、ユーザは、オブジェクトDB12bから抽出したオブジェクトのうちで、アクションDB22bにオブジェクトIDが記憶してあるオブジェクトを特定する。これにより、選択されたオブジェクトと同一又は関連するオブジェクトで、既にアクションが登録されているオブジェクトを特定することができる。なお、例えばサーバ10が、各ユーザ端末20で登録されたアクションを収集する構成を有する場合、ユーザ端末20は、選択されたオブジェクトと同一又は関連するオブジェクトに対して他のユーザ端末20で登録されたアクションをサーバ10から取得してもよい。
ユーザ端末20は、選択されたオブジェクトと同一又は関連するオブジェクトに対して登録されたアクションがないと判断した場合(S81:NO)、ステップS20に処理を移行する。一方、ユーザ端末20は、選択されたオブジェクトと同一又は関連するオブジェクトに対して既にアクションが登録されていると判断した場合(S81:YES)、同一又は関連するオブジェクトに対して登録されているアクションに関する情報をアクションDB22bから読み出し、読み出した情報に基づいてアクションの確認画面を表示部25に表示する(S82)。具体的には、ユーザ端末20は、アクションDB22bからマーカ情報、アクションクラス、URL、アクション名等を読み出し、図19に示すような確認画面を生成して表示する。図19に示す確認画面は、図7Aに示すアクション受付画面と同様に、マーカ選択ボタン25a及びアクション入力欄25bを有する。確認画面においてマーカ選択ボタン25aは、アクションDB22bから読み出したマーカ情報が示す大きさ及び形状のマーカが選択されていることを示しており、アクション入力欄25bの各入力欄25ba〜25bcには、アクションDB22bから読み出した各情報が表示してある。
図19に示す確認画面は、表示された内容、即ち、既に登録されているアクション内容でアクションの登録を指示するための「この内容で登録」ボタン25caと、新たな内容でアクションの登録を指示するための新規登録ボタン25cbとを有する。ユーザ端末20は、入力部24を介して新規登録ボタン25cbが操作されたか否かに応じて、アクションの新規登録を受け付けたか否かを判断する(S83)。新規登録を受け付けていないと判断した場合(S83:NO)、即ち、既に登録されているアクション内容での登録指示を受け付けた場合、ユーザ端末20は、ステップS22の処理に移行し、確認画面に表示されたアクションに関する情報(アクション情報)をアクションDB22bに記憶する(S22)。なお、確認画面は、表示された各情報を編集できるように構成されていてもよく、編集された場合、編集後のアクション情報は、新規のアクション情報としてアクションDB22bに記憶されてもよい。
新規登録を受け付けたと判断した場合(S83:YES)、ユーザ端末20は、ステップS20に処理を移行し、図7Aに示すようなアクション受付画面を表示部25に表示する(S20)。そしてユーザ端末20は、ステップS21以降の処理を行い、選択されたオブジェクトに対して登録すべき新たなアクションの入力を受け付けてアクションDB22bに登録する。
上述した処理により、本実施形態においても、ユーザ端末20において各種の公開動画に対して動画中のオブジェクトに、ユーザが所望するアクションを設定することができる。また、本実施形態においても、実施形態1と同様に、ユーザ端末20は図8に示す処理を行うことにより、サーバ10からダウンロードした公開動画を閲覧する際に、図9Aに示すようにマーカMを付加して表示することができる。また、動画中のマーカMが選択操作された場合、図9Bに示すように、このマーカMに設定されたアクションを実行することができる。よって、動画中に設定されたアクションによって各オブジェクトを宣伝又は紹介することができ、公開動画の訴求力による販売促進が期待できる。
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、アクションの登録対象としてオブジェクトが選択された場合に、このオブジェクトが、既にアクションが登録されたオブジェクトと同一又は関連(類似)するオブジェクトである場合に、同じアクションを登録できる。これにより、ユーザがマーカM及びアクションに関する情報を入力する際の操作負担を軽減することができる。本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。
本実施形態では、再生中の撮影動画22aに重畳表示された対象物マークOMに基づいて、アクションの登録対象のオブジェクトが指定された場合に、指定されたオブジェクトについて、同一又は関連するオブジェクトに既にアクションが登録されているか否かを判断していた。このほかに、ユーザ端末20は、サーバ10から受信したオブジェクトDB12bに基づいて、撮影動画22a中のオブジェクトに対象物マークOMを付加する際に、このオブジェクトが、既にアクションが登録されたオブジェクトと同一又は関連するオブジェクトであるか否かを自動的に判断してもよい。そして、ユーザ端末20は、既にアクションが登録されたオブジェクトと同一又は関連するオブジェクトであると判断した場合に、既に登録してあるアクションを、このオブジェクトに対して登録してもよい。この場合、ユーザ端末20で再生中の撮影動画22aにおいて、オブジェクトに対象物マークOMを重畳表示させることなく、アクションを登録することができる。よって、動画中のオブジェクトにアクションが一度登録された場合、このオブジェクトと同一又は関連するオブジェクトが以降のシーン画像に登場したときに同じアクションが自動的に登録される。よって、アクションの登録に要するユーザの操作負担を軽減できる。
(実施形態6)
実施形態1の変形例で、サーバ10が、ユーザ端末20から受信した動画(撮影動画22a)の各シーン画像に対するオブジェクトDB12bをまとめてユーザ端末20へ送信する情報処理システムについて説明する。本実施形態の情報処理システム100は、実施形態1の情報処理システム100の各装置10,20と同様の装置によって実現されるので、構成については説明を省略する。実施形態1と同様に、本実施形態の情報処理システム100では、サーバ10が動画(撮影動画22a)中のオブジェクトを認識してユーザ端末20に通知する。ここで、本実施形態では、サーバ10が動画中の各シーン画像に対して生成するオブジェクトDB12bをまとめてユーザ端末20へ送信する。そしてユーザ端末20は、撮影動画22aを再生しつつ、サーバ10から受信した各シーン画像のオブジェクトDB12bに基づく対象物マークOMを重畳表示させ、動画中のオブジェクトのいずれかに対してアクションの設定を行い、アクションを設定した動画データをサーバ10にアップロードする。
以下に、本実施形態の情報処理システム100における各装置が行う処理について説明する。図20は実施形態6のアクションの設定処理手順の一例を示すフローチャート、図21はユーザ端末20における画面例を示す模式図である。図20に示す処理は、図5に示す処理においてステップS16〜S17の代わりにステップS91〜S92を追加し、ステップS18の前にステップS93〜S95を追加したものである。図5と同じステップについては説明を省略する。また図20では、図5中のステップS24〜S26の図示を省略している。
本実施形態のユーザ端末20は、実施形態1と同様に、ステップS11〜S12の処理を行う。ユーザ端末20は、撮影動画22aの全てのデータをサーバ10へ送信し、サーバ10は、撮影動画22aの全てのデータを受信して記憶部12に記憶する。サーバ10は、ユーザ端末20から受信して記憶部12に記憶した撮影動画22aに対して、ステップS13〜S15の処理を行う。具体的には、サーバ10は、記憶部12に記憶した撮影動画22aをシーン画像毎に分割し、1つのシーン画像を抜き出す(S13)。そしてサーバ10は、抜き出したシーン画像に基づいて、シーン画像中に存在するオブジェクトを特定し(S14)、特定したオブジェクトに関する情報を、このシーン画像に対応するオブジェクトDB12bに記憶する(S15)。
本実施形態のサーバ10は、ユーザ端末20から受信した撮影動画22aの全てのシーン画像に対する処理を終了したか否かを判断し(S91)、終了していないと判断した場合(S91:NO)、ステップS13の処理に戻る。そしてサーバ10は、次のシーン画像を抜き出し(S13)、次のシーン画像に対してステップS14〜S15の処理を行う。サーバ10は、全てのシーン画像に対する処理を終了するまでステップS13〜S15の処理を繰り返し、各シーン画像に対してオブジェクトDB12bを生成する。全てのシーン画像に対する処理を終了したと判断した場合(S91:YES)、サーバ10は、生成した全てのオブジェクトDB12bをまとめてユーザ端末20へ送信する(S92)。
ユーザ端末20は、サーバ10が送信した全てのオブジェクトDB12bを受信して記憶部22に記憶する(S93)。そしてユーザ端末20は、アクションを設定すべき撮影動画22aの再生処理を開始する(S94)。その際、ユーザ端末20は、記憶部22に記憶したオブジェクトDB12bに基づいて、図21に示すような再生バー25hを生成し、撮影動画22aと共に表示部25に表示する(S95)。図21に示す再生バー25hは、表示中のシーン画像の再生開始からの再生時間(再生位置)を示す再生位置指示部25haを有し、更に、サーバ10でオブジェクトが認識された各シーン画像の再生位置を示す識別子25hbを有する。即ち、識別子25hbは、オブジェクトが認識された各シーン画像の再生位置に対応する位置に表示してある。ユーザは、このような再生バー25hによって現在の再生位置を把握できると共に、オブジェクトが含まれるシーン画像の位置を把握できる。なお、再生バー25hは、再生位置指示部25haを入力部24にて移動させることにより、移動後の再生位置から再生処理を開始(再開)させることができる。よって、ユーザは撮影動画22aを初めから再生させる必要はなく、所望の位置から再生させることができる。なお、再生バー25h中の識別子25hbは、シーン画像中のオブジェクトの種類(オブジェクトラベル又はオブジェクトジャンル)毎に異なる態様で表示されてもよい。例えば、1つの再生バー25hにおいて、オブジェクトの種類毎に異なる色又は模様の識別子25hbが表示されてもよい。また、オブジェクトの種類毎に再生バー25hが生成され、それぞれの再生バー25hに、それぞれの種類のオブジェクトを含むシーン画像の再生位置を示す識別子25hbが表示されてもよい。
その後、ユーザ端末20は、ステップS18以降の処理を行う。具体的には、ユーザ端末20は、撮影動画22aの各シーン画像を表示させつつ、各シーン画像のオブジェクトDB12bに記憶してある各情報に基づいて対象物マークOMを重畳表示させる(S18)。なお、本実施形態では、ステップS23で処理対象の撮影動画22aの再生処理が終了していないと判断した場合(S23:NO)、ユーザ端末20は、ステップS18の処理に戻る。上述した処理により、本実施形態においても、ユーザ端末20において各種の公開動画に対して動画中のオブジェクトに、ユーザが所望するアクションを設定することができる。また、本実施形態においても、実施形態1と同様に、ユーザ端末20は図8に示す処理を行うことにより、サーバ10からダウンロードした公開動画を閲覧する際に、図9Aに示すようにマーカMを付加して表示することができる。更に、動画中のマーカMが選択操作された場合、図9Bに示すように、このマーカMに設定されたアクションを実行することができる。
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、動画中にオブジェクトが認識されたシーン画像の位置(再生開始からの再生時間)を表示する再生バー25hが表示される。よって、再生バー25hによって現在の再生位置を把握すると共に、オブジェクトが含まれるシーン画像の位置を確認し、再生位置指示部25haを移動させることにより、所望の位置から再生処理を行うことができる。これにより、撮影動画22a中のオブジェクトにアクションを設定する際の撮影動画22aの再生時間を短縮できる。よって、動画中のオブジェクトにアクションを設定する際のユーザの操作負担を軽減することができる。本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。本実施形態の構成は、上述した実施形態5の情報処理システム100にも適用でき、実施形態5の情報処理システム100に適用した場合であっても同様の効果が得られる。
(実施形態7)
実施形態1の変形例で、複数のオブジェクトが重なって撮影されたシーン画像において、いずれかのオブジェクトに付加された対象物マークOMが選択された場合に、重なっている各オブジェクトが明確になるように再表示する情報処理システムについて説明する。本実施形態の情報処理システム100は、実施形態1の情報処理システム100の各装置10,20と同様の装置によって実現されるので、構成については説明を省略する。
以下に、本実施形態の情報処理システム100における各装置が行う処理について説明する。図22は実施形態7のアクションの設定処理手順の一例を示すフローチャート、図23はユーザ端末20における画面例を示す模式図である。図22に示す処理は、図5に示す処理においてステップS20の前にステップS101〜S103を追加したものである。図5と同じステップについては説明を省略する。また図22では、図5中のステップS11〜S17及びS24〜S26の図示を省略している。
本実施形態のユーザ端末20及びサーバ10は、実施形態1と同様に、ステップS11〜S19の処理を行う。そしてユーザ端末20は、再生中の撮影動画22aに重畳表示された対象物マークOMに基づいて、いずれかのオブジェクトに対する選択を受け付けたと判断した場合(S19:YES)、選択されたオブジェクトに重なって表示されているオブジェクトがあるか否かを判断する(S101)。例えば、ユーザ端末20は、ユーザがオブジェクトを選択するために指定した操作位置と、サーバ10で特定されたオブジェクトの領域(対象物マークOM)とを比較し、操作位置の画素を含む対象物マークOMが複数あるか否かを判断する。そして、複数あると判断した場合、ユーザ端末20は、選択されたオブジェクトに重なって表示されているオブジェクトがあると判断する。またユーザ端末20は、ユーザがオブジェクトを選択するために指定した操作位置を含む対象物マークOMを1つ特定し、特定した対象物マークOMに重なって表示される他の対象物マークOMがあるか否かを判断してもよい。
ユーザ端末20は、選択されたオブジェクトに重なって表示されているオブジェクトがあると判断した場合(S101:YES)、各オブジェクトをシーン画像から抽出して重ならない状態で表示する(S102)。例えば、図23Aに示すように円形オブジェクト、三角形オブジェクト及び四角形オブジェクトの3つのオブジェクトが重なって表示されている場合に、図23Bに示すような位置をユーザが指定(操作)したときは、図23Bに示すように各オブジェクトがシーン画像から抽出されて表示される。なお、前側のオブジェクトに隠れて後側に表示されているオブジェクトについては、前後のシーン画像から、隠れていない状態のオブジェクトの画像を抽出して表示する。図23Bに示すように各オブジェクトが表示された画面において、ユーザ端末20は、いずれかのオブジェクトに対する選択を受け付けたか否かを判断する(S103)。いずれかのオブジェクトに対する選択を受け付けたと判断した場合(S103:YES)、ユーザ端末20は、選択されたオブジェクトに対してアクションを設定するためのアクション受付画面を表示部25に表示し(S20)、ステップS21移行の処理を行う。これにより、ユーザ端末20は、ステップS103で選択されたオブジェクトに対して設定すべきアクションを受け付け、アクションDB22bに記憶する。
なお、図23Bに示すような画面において、いずれかのオブジェクトに対する選択を受け付けていないと判断した場合(S103:NO)、ユーザ端末20は、ステップS23の処理に移行する。またユーザ端末20は、ステップS101で重なって表示されているオブジェクトはないと判断した場合(S101:NO)、ステップS20の処理に移行し、ステップS20以降の処理を行う。これにより、ユーザ端末20は、ステップS19で選択されたオブジェクトに対して設定すべきアクションを受け付け、アクションDB22bに記憶する。
上述した処理により、本実施形態においても、ユーザ端末20において各種の公開動画に対して動画中のオブジェクトに、ユーザが所望するアクションを設定することができる。また、本実施形態においても、実施形態1と同様に、ユーザ端末20は図8に示す処理を行うことにより、サーバ10からダウンロードした公開動画を閲覧する際に、図9Aに示すようにマーカMを付加して表示することができる。また、動画中のマーカMが選択操作された場合、図9Bに示すように、このマーカMに設定されたアクションを実行することができる。よって、動画中に設定されたアクションによって各オブジェクトを宣伝又は紹介することができ、公開動画の訴求力による販売促進が期待できる。
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、1つのシーン画像中に複数のオブジェクトが重なって表示される撮影動画22aであっても、それぞれのオブジェクトを各別に表示することができるので、各オブジェクトを容易に選択(指定)することができる。よって、動画中のオブジェクトにアクションを設定する際のユーザの操作負担を軽減することができる。本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。本実施形態の構成は、上述した実施形態5〜6の情報処理システム100にも適用でき、実施形態5〜6の情報処理システム100に適用した場合であっても同様の効果が得られる。
(実施形態8)
動画中のオブジェクトが選択操作された場合に、このオブジェクトの種類(オブジェクトラベル)又はジャンルに対して登録してあるアクションが実行される情報処理システムについて説明する。本実施形態の情報処理システム100は、実施形態1の情報処理システム100の各装置10,20と同様の装置によって実現されるので、構成については説明を省略する。なお、本実施形態では、サーバ10は、図2に示す構成に加えて、記憶部12にメーカ情報DB12dを記憶している。
図24は、メーカ情報DB12dの構成例を示す模式図である。メーカ情報DB12dは、メーカ毎に、オブジェクトの種類(オブジェクトラベル)又はジャンルに対して予め登録されたアクションに関する情報を記憶する。図24に示すメーカ情報DB12dは、メーカ情報列、ラベル列、マーカ情報列、アクションID列、アクションクラス列、URL名列、URL列、URL情報列、説明情報列、アクション名例等を含む。メーカ情報列は、予めアクションを登録している企業、会社等に関する情報を記憶し、例えばメーカ名が記憶される。ラベル列は、例えば対象物認識モデル12aによって判別可能なオブジェクトの種類を示すラベル情報を記憶する。メーカ情報DB12dは、メーカ情報及びラベル情報に対応付けて、ラベル情報が示すラベルの対象物(アイテム)に対して登録されたアクションに関する各種の情報を記憶する。マーカ情報列、アクションID列、アクションクラス列、URL名列、URL列、URL情報列、説明情報列、アクション名列のそれぞれは、図4Bに示したアクションDB22bの各列と同じ情報を記憶する。メーカ情報DB12dに記憶される各情報は、制御部11が通信部13を介して取得した場合に、制御部11によって記憶される。メーカ情報DB12dの記憶内容は図24に示す例に限定されず、メーカ毎又はラベル情報毎に登録されるアクションに関する各種の情報を記憶してもよい。
本実施形態の情報処理システム100では、ユーザ端末20が、撮影動画22aに対してアクションDB22bを作成し、作成したアクションDB22bを撮影動画22aに付加してサーバ10にアップロードする。またユーザ端末20は、サーバ10がネットワークN経由で公開している公開用動画をダウンロードして閲覧できる。
以下に、本実施形態の情報処理システム100における各装置が行う処理について説明する。本実施形態の情報処理システム100では、ユーザ端末20及びサーバ10は、図5に示す処理と同様の処理を行うことができ、同様の処理を行うことにより、撮影動画22a中のオブジェクトに各種のアクションを設定(登録)することができる。図25は実施形態8の公開用動画の再生処理手順の一例を示すフローチャート、図26はユーザ端末20における画面例を示す模式図である。図25に示す処理は、図8に示す処理においてステップS38の前にステップS111〜S114を追加したものである。図8と同じステップについては説明を省略する。
本実施形態のユーザ端末20及びサーバ10は、実施形態1と同様に、ステップS31〜S37の処理を行う。そしてユーザ端末20は、閲覧中の公開動画に重畳表示されたいずれかのマーカMに対する選択を受け付けたと判断した場合(S37:YES)、選択されたマーカMが付加されたオブジェクトの種類(オブジェクトラベル)に対してアクションが登録されているか否か(登録されたアクションがあるか否か)をサーバ10に問い合わせる(S111)。具体的には、ユーザ端末20は、選択されたマーカMが付加されたオブジェクトのオブジェクトラベルをオブジェクトDB12bから読み出し、読み出したオブジェクトラベルに対応付けてアクション情報がサーバ10のメーカ情報DB12dに登録されているか否かをサーバ10に問い合わせる。
サーバ10は、ユーザ端末20からの問い合わせに応じて、受信したオブジェクトラベル(ラベル)に対応付けてアクション情報がメーカ情報DB12dに登録されているか否かを判断し、判断結果に応じた問い合わせ結果をユーザ端末20へ送信する(S112)。具体的には、サーバ10は、受信したオブジェクトラベルに対応するアクション情報がメーカ情報DB12dに登録されている場合、オブジェクトラベルに対応付けて記憶してあるマーカ情報及びアクション情報をメーカ情報DB12dから読み出して、ユーザ端末20へ送信する。なお、受信したオブジェクトラベルに対応するアクション情報がメーカ情報DB12dに登録されていない場合、サーバ10は、アクションが登録されていないことを示す問い合わせ結果をユーザ端末20へ送信する。
ユーザ端末20は、サーバ10から問い合わせ結果を受信し、受信した問い合わせ結果から、選択されたオブジェクトのラベルに対応して登録されたアクションがあるか否かを判断する(S113)。登録されたアクションがないと判断した場合(S113:NO)、ユーザ端末20は、実施形態1と同様に、ステップS38以降の処理を行う。即ち、ユーザ端末20は、選択されたマーカMに対応するオブジェクトに対して設定されたアクションの情報をアクションDB22bから読み出し、読み出したアクション情報に基づくアクションを実行する(S38)。一方、登録されたアクションがあると判断した場合(S113:YES)、ユーザ端末20は、サーバ10から受信したアクション情報に基づくアクション(登録されていたアクション)を実行する(S114)。これにより、ユーザ端末20は、例えば図26Aに示すように、オブジェクトラベルがdrinkと判別されるオブジェクトに重畳表示されたマーカMが選択操作された場合、このオブジェクトのラベル(ここではdrink)に対応してアクションが登録されているか否かをサーバ10に問い合わせ、登録されているアクションに係る情報をサーバ10から受信することにより、オブジェクトラベルに対して登録されているアクションを実行することができる。なお、登録されているアクションは例えば、説明情報の表示、URL名、URL、URL情報等の表示、各リンク先へアクセス等を用いることができる。また、アクションが登録されていないラベルのオブジェクトについては、ユーザがアクション設定処理によって設定したアクションを実行できる。なお、1つのオブジェクトに対して、このオブジェクトのラベルに対して登録してあるアクションと、ユーザが設定したアクションとがある場合に、いずれのアクションを実行すべきかを選択できるように構成されていてもよい。
ユーザ端末20は、ステップS38又はステップS114の処理後、実施形態1と同様に、ステップS39以降の処理を行う。これにより、本実施形態においても、実施形態1と同様に、ユーザ端末20は、サーバ10からダウンロードした公開動画を閲覧中に動画中のマーカMが選択操作された場合に、図9B及び図26Bに示すように、このマーカMに設定されたアクションを実行することができ、アクションに応じた処理の実行指示を受け付けた場合に、実行指示された処理を実行することができる。
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、動画中のオブジェクトのラベル(種類)に対応してサーバ10側でアクションを登録しておくことにより、動画の再生中に選択されたオブジェクトに対して、オブジェクトラベルに対応して登録されているアクションを実行することができる。このような構成により、例えばオブジェクトラベル「犬」に対応して、ドッグフードメーカの広告ページへのリンクを表示するアクションを登録しておくことによって、動画中に写っている犬(具体的には、犬に対応付けて表示されているマーカ)が選択された場合に、ドッグフードメーカの広告ページへのリンクを表示することができる。また、例えばオブジェクトラベル「赤ちゃん・乳幼児」に対応して、写真館又はカメラメーカの広告ページへのリンクを表示するアクションを登録しておくことによって、動画中に写っている赤ちゃん(具体的には、赤ちゃんに対応付けて表示されているマーカ)が選択された場合に、写真館又はカメラメーカの広告ページへのリンクを表示することができる。このように、本実施形態では、オブジェクト毎にユーザが設定したアクションだけでなく、メーカ側の担当者がオブジェクトラベルに対応付けて設定したアクションを実行することができる。よって、メーカ側が設定したいアクション(メーカ又は製品の宣伝又は紹介等)の設定が可能であり、公開動画の訴求力による販売促進がより期待できる。このようにサーバ10側でアクションを管理することにより、アクションに紐づくリンクを、メーカ等の各種会社側で管理できる。即ち、例えばアクションとして設定されているリンク先の会社において、リンクに基づいてアクセスされた場合に、例えば100回のアクセスに対して1回の割合で当たりを配布するように、アクションの内容(リンクへのアクセスによって得られる内容)を変更することができる。このような構成とした場合、例えば当たりを出すために、動画中のオブジェクト(オブジェクトに付与されたマーカ)を介したリンク先へのアクセス数の増加が期待でき、リンク先のウェブページによる宣伝効率の向上が期待できる。また、例えば20種類のURLをサーバ10側で用意しておき、動画中に設定されたリンク(アクション)に基づくアクセスに対して異なるURLをユーザ端末20に提供することにより、動画に設定された同じアクションに基づくアクセスであっても異なるURLの取得が可能となる。よって、異なるURLを取得するために、動画中のオブジェクト(オブジェクトに付与されたマーカ)を介したリンク先へのアクセス数の増加が期待できる。
本実施形態では、公開用動画の再生時に、ユーザ端末20が、動画中のオブジェクトの種類等に応じてサーバ10側で用意されているアクション(URLへのリンク)をサーバ10から取得してユーザに提供する構成である。このほかに、動画に対してアクションを設定する際に、ユーザ端末20が、設定すべきアクションとして、サーバ10側で用意されたアクションをサーバ10から取得して設定するように構成することもできる。このような構成とした場合、アクションの設定時に、メーカ側が設定したいアクション(メーカ又は製品の宣伝又は紹介等)の設定が可能となる。上述したようにサーバ10側でアクションを管理することにより、例えば各社のキャンペーン切り替え時にサーバ10の記憶部12に記憶されているアクションの情報を更新することによって、動画中のオブジェクトに設定されるアクションをリアルタイムで切り替えることができる。従って、ユーザ端末20のユーザは、アクションの内容を意識することなく、サーバ10側で用意されているアクションを設定することによって、メーカ側が希望するアクションの設定が可能となる。
本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。本実施形態の構成は、上述した実施形態2〜7の情報処理システム100にも適用でき、実施形態2〜7の情報処理システム100に適用した場合であっても同様の効果が得られる。なお、実施形態2〜4の情報処理システム100に適用した場合、ユーザは動画中の任意の位置に対してマーカMの表示位置を指定した後に、図7A及び図7Bに示すようなアクション受付画面を介してアクション内容を入力する。このとき、ユーザが、マーカMで指し示すオブジェクトのラベル情報を入力するように構成しておく。これにより、動画中の任意の位置にアクションを設定する場合であっても、設定されるマーカM(マーカMが示すオブジェクト)に対してラベル情報を対応付けることができる。よって、動画を閲覧する際に、選択されたマーカMに対応付けられたラベル情報に基づいてサーバ10側で登録されているアクションをサーバ10から取得することができ、オブジェクトラベル毎に登録されたアクションを実行することができる。
上述した各実施形態において、サーバ10が対象物認識モデル12aを用いて撮影動画22a中のオブジェクトを検知する際に、検知対象とするオブジェクトの種類(オブジェクトラベル)又はジャンルを予め登録できるように構成してもよい。例えば、ユーザ端末20の動画アプリ22AP又はサーバ10において、検知対象とすべきオブジェクトのラベル又はジャンルが登録できるように構成してもよい。なお、サーバ10においては、ユーザ毎に検知対象とすべきオブジェクトのラベル又はジャンルを登録できるように構成してもよい。また、サーバ10が検知結果として出力する条件を予め設定できるように構成してもよい。例えば、ユーザ端末20の動画アプリ22AP又はサーバ10において、サーバ10による対象物認識モデル12aを用いた検知処理によって判別確率が所定値(例えば80%)以上であったオブジェクトのみを検知結果として出力するように構成してもよい。このような構成とした場合、サーバ10による検知対象又は検知結果として出力すべき対象を制限することができ、動画中に含まれる多数のオブジェクトから、処理対象とすべきオブジェクトを制限できる。よって、不要な対象物マークOM又はマーカMの表示を抑制することができる。
今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本開示の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
10 サーバ
11 制御部
12 記憶部
13 通信部
14 入力部
20 ユーザ端末
21 制御部
22 記憶部
23 通信部
12a 対象物認識モデル

Claims (16)

  1. 動画中の対象物の指定を受け付け、
    指定された前記対象物に対応してアクションの指定を受け付け、
    指定された前記アクションに係る情報を、指定された前記動画中の対象物に対応付ける
    処理をコンピュータに実行させるプログラム。
  2. 前記動画中の対象物を示す対象物マークを、前記動画中の対象物をトラッキングするように前記動画に付加し、
    前記対象物マークに基づいて前記動画中の対象物の指定を受け付ける
    処理を前記コンピュータに実行させる請求項1に記載のプログラム。
  3. 前記動画中の対象物が、既にアクションが対応付けられている対象物と同一又は関連する対象物であるか否かを判断し、
    同一又は関連する対象物であると判断した場合、前記動画中の対象物に、同一又は関連する対象物に既に対応付けられているアクションに係る情報を対応付ける
    処理を前記コンピュータに実行させる請求項1又は2に記載のプログラム。
  4. 前記動画に含まれる各フレームの前記動画の再生開始からの再生時間を示すバーを表示し、
    同一又は関連する対象物を含むフレームであることを示す識別子を、前記バーにおける、前記フレームの前記再生時間に対応する位置に表示する
    処理を前記コンピュータに実行させる請求項1から3までのいずれかひとつに記載のプログラム。
  5. 前記動画中の対象物の種別に対応付けて、企業に関するアクションが登録してある場合、前記動画中の対象物の種別に応じた前記企業に関するアクションに係る情報を、前記動画中の対象物に対応付ける
    処理を前記コンピュータに実行させる請求項1から4までのいずれかひとつに記載のプログラム。
  6. 前記動画中の対象物の指定を受け付けた場合に、指定された対象物と重なって表示される他の対象物があるか否かを判断し、
    前記他の対象物があると判断した場合、指定された前記対象物及び前記他の対象物を重ならないように表示し、
    重ならないように表示した前記対象物のいずれかの選択を受け付ける
    処理を前記コンピュータに実行させる請求項1から5までのいずれかひとつに記載のプログラム。
  7. 動画中の任意の位置の指定を受け付け、
    指定された前記位置に対応してアクションの指定を受け付け、
    指定された前記アクションに係る情報を、指定された前記動画中の位置に対応付ける
    処理をコンピュータに実行させるプログラム。
  8. 前記任意の位置の指定を開始すべき前記動画中のフレームを表示し、
    表示中の前記フレームから前記動画の再生を開始する指示を受け付けた場合に、所定時間をカウントダウンし、
    カウントダウン終了後に前記動画を再生させつつ前記任意の位置の指定を受け付ける
    処理を前記コンピュータに実行させる請求項7に記載のプログラム。
  9. 前記動画中の任意の位置の指定を受け付ける際に、前記動画の再生速度の指定を受け付け、
    指定された前記再生速度で前記動画を再生させつつ前記任意の位置の指定を受け付ける
    処理を前記コンピュータに実行させる請求項7又は8に記載のプログラム。
  10. 過去に指定されたアクションの履歴を表示し、
    表示した前記アクションの履歴に基づいて、前記アクションの指定を受け付ける
    処理を前記コンピュータに実行させる請求項1から9までのいずれかひとつに記載のプログラム。
  11. 前記アクションは、対象物に関する情報の表示、対象物に関連するウェブサイト又はSNS(Social Networking Service )へのリンク、又は対象物に関する地図の表示のいずれかを含む
    請求項1から10までのいずれかひとつに記載のプログラム。
  12. 動画中の対象物にアクションに係る情報が対応付けてある動画を再生する際に、前記対象物に対応するマーカを前記動画に付加して表示し、
    前記マーカが選択された場合に、前記マーカに対応する前記対象物に対応付けられている前記アクションに係る情報に基づいて前記アクションを実行する
    処理をコンピュータに実行させるプログラム。
  13. 動画中の任意の位置にアクションに係る情報が対応付けてある動画を再生する際に、動画中の前記位置にマーカを付加して表示し、
    前記マーカが選択された場合に、前記マーカが付加された前記位置に対応付けられている前記アクションに係る情報に基づいて前記アクションを実行する
    処理をコンピュータに実行させるプログラム。
  14. 動画中の任意の位置の指定を受け付ける位置受付部と、
    指定された前記位置に対応してアクションの指定を受け付けるアクション受付部と、
    指定された前記アクションに係る情報を、指定された前記動画中の位置に対応付ける対応付け部と
    を備える情報処理装置。
  15. 動画中の任意の位置の指定を受け付け、
    指定された前記位置に対応してアクションの指定を受け付け、
    指定された前記アクションに係る情報を、指定された前記動画中の位置に対応付ける
    処理をコンピュータが実行する情報処理方法。
  16. 動画を所定のサーバへ送信する端末装置と、
    前記端末装置が送信した前記動画を取得する取得部、
    入力された画像に含まれる対象物を特定した特定結果を出力する学習済みモデルを用いて、前記取得部が取得した動画中の前記対象物に対応する対象物領域を特定する特定部、
    前記取得部が取得した動画に基づいて、前記特定部が特定した対象物領域をトラッキングするトラッキング部、及び
    トラッキング結果を前記端末装置へ送信する送信部を有するサーバとを備え、
    前記端末装置は、
    前記サーバが送信した前記トラッキング結果に基づいて、前記動画中の対象物を示す対象物マークを、前記動画中の対象物をトラッキングするように前記動画に付加する付加部、
    前記対象物マークに基づいて、前記動画中の対象物の指定を受け付ける対象物受付部、
    指定された前記対象物に対応してアクションの指定を受け付けるアクション受付部、及び
    指定された前記アクションに係る情報を、指定された前記動画中の対象物に対応付ける対応付け部を更に有する
    情報処理システム。
JP2019182485A 2019-10-02 2019-10-02 プログラム、情報処理装置、情報処理方法及び情報処理システム Pending JP2021061461A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019182485A JP2021061461A (ja) 2019-10-02 2019-10-02 プログラム、情報処理装置、情報処理方法及び情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019182485A JP2021061461A (ja) 2019-10-02 2019-10-02 プログラム、情報処理装置、情報処理方法及び情報処理システム

Publications (1)

Publication Number Publication Date
JP2021061461A true JP2021061461A (ja) 2021-04-15

Family

ID=75380449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019182485A Pending JP2021061461A (ja) 2019-10-02 2019-10-02 プログラム、情報処理装置、情報処理方法及び情報処理システム

Country Status (1)

Country Link
JP (1) JP2021061461A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115278307A (zh) * 2022-07-27 2022-11-01 天翼云科技有限公司 一种视频播放方法、装置、设备和介质
JP7410105B2 (ja) 2021-10-19 2024-01-09 Lineヤフー株式会社 情報提供装置、アプリケーションプログラム、情報提供方法、およびプログラム
CN117765839A (zh) * 2023-12-25 2024-03-26 广东保伦电子股份有限公司 一种室内智慧导览方法、装置及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7410105B2 (ja) 2021-10-19 2024-01-09 Lineヤフー株式会社 情報提供装置、アプリケーションプログラム、情報提供方法、およびプログラム
CN115278307A (zh) * 2022-07-27 2022-11-01 天翼云科技有限公司 一种视频播放方法、装置、设备和介质
CN115278307B (zh) * 2022-07-27 2023-08-04 天翼云科技有限公司 一种视频播放方法、装置、设备和介质
CN117765839A (zh) * 2023-12-25 2024-03-26 广东保伦电子股份有限公司 一种室内智慧导览方法、装置及存储介质

Similar Documents

Publication Publication Date Title
US10235025B2 (en) Various systems and methods for expressing an opinion
JP6485969B2 (ja) ビデオコンテンツの動的バインド
EP2791761B1 (en) Gesture-based tagging to view related content
KR101664754B1 (ko) 정보 취득 방법, 장치, 프로그램 및 기록매체
CN109391834B (zh) 一种播放处理方法、装置、设备和存储介质
US20160041981A1 (en) Enhanced cascaded object-related content provision system and method
US20170228781A1 (en) Systems and methods for identifying, interacting with, and purchasing items of interest in a video
US20200159763A1 (en) Apparatus and method for clipping and sharing content at a portable terminal
CN109155136A (zh) 从视频自动检测和渲染精彩场面的计算机化系统和方法
JP2021061461A (ja) プログラム、情報処理装置、情報処理方法及び情報処理システム
CN103797812A (zh) 带评论运动图像生成装置及带评论运动图像生成方法
US10440435B1 (en) Performing searches while viewing video content
US9589296B1 (en) Managing information for items referenced in media content
WO2022247220A9 (zh) 界面处理方法及装置
CN104936034A (zh) 基于视频的信息录入方法及装置
KR101181732B1 (ko) 동영상 핑거프린트 정보에 기반한 동영상 마크업 데이터 생성 방법 및 이를 이용한 정보 제공 방법 및 시스템
KR20100118896A (ko) 콘텐츠 내 객체 정보 및 객체 기반의 응용 콘텐츠를 제공하는 방법 및 장치
US11847180B2 (en) Method and system for recommending location-based digital content
JP6186457B2 (ja) 情報表示プログラム、情報表示装置、情報表示方法および配信装置
KR102557178B1 (ko) 동영상 컨텐츠 융합형 상품 검색 서비스 제공 방법
KR20180048537A (ko) 영상 검색 정보 제공 방법, 장치 및 컴퓨터 프로그램
KR20140076674A (ko) 동영상에 객체 증강을 이용한 광고 시스템 및 방법
TWI806207B (zh) 啟始適地性主題的方法與系統
KR102171041B1 (ko) 이미지를 이용한 융합 정보 제작 장치 및 방법
KR20220166139A (ko) 동영상 컨텐츠 상의 제품 구매 보조 서비스 제공 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240305