JP7156748B1 - 情報処理システム及び情報処理方法 - Google Patents

情報処理システム及び情報処理方法 Download PDF

Info

Publication number
JP7156748B1
JP7156748B1 JP2022119125A JP2022119125A JP7156748B1 JP 7156748 B1 JP7156748 B1 JP 7156748B1 JP 2022119125 A JP2022119125 A JP 2022119125A JP 2022119125 A JP2022119125 A JP 2022119125A JP 7156748 B1 JP7156748 B1 JP 7156748B1
Authority
JP
Japan
Prior art keywords
data
content
moving image
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022119125A
Other languages
English (en)
Other versions
JP2024016772A (ja
Inventor
楓太 小川
大樹 皆川
大樹 粟田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BLACK INC.
Original Assignee
BLACK INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BLACK INC. filed Critical BLACK INC.
Priority to JP2022119125A priority Critical patent/JP7156748B1/ja
Priority claimed from JP2022119123A external-priority patent/JP2024016770A/ja
Application granted granted Critical
Publication of JP7156748B1 publication Critical patent/JP7156748B1/ja
Publication of JP2024016772A publication Critical patent/JP2024016772A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】既存のソフトウェアのコンテンツに関する情報から、動画データとその付帯データを容易に作成する情報処理方法を提供する。【解決手段】情報処理方法は、コンピュータが、ソフトウェアの実行により得られるコンテンツの録画によって動画データを作成することと、コンテンツに関するコンテンツ情報に基づいて動画データに関連する付帯データの作成を行うことと、を実行することを含む。【選択図】図3

Description

本発明は、例えば、動画データの処理に関する情報処理システム及び情報処理方法に関する。
コンピュータで実行されるソフトウェアは、スタンドアローン型アプリケーション、ネイティブアプリケーション、Webアプリケーションなどに分類される。
スタンドアローン型アプリケーションは、搭載されたコンピュータの演算装置のみで実行される。ネイティブアプリケーションは、インストールされたコンピュータ内の演算装置が直接に演算処理を行うタイプのアプリケーションである。スタンドアローン型アプリケーション及びネイティブアプリケーションは、必ずしもネットワーク環境を必要とすることなく実行される。ただし、ネイティブアプリケーションでは、アプリケーションの実行中の各段階で、必要に応じて通信が行われる場合もある(特許文献1)。
特開2016-053969号
既存のスタンドアローン型アプリケーション又はネイティブアプリケーションは、Web上で実施できるアプリケーションに変更するため、Webアプリケーションに改変されることがある。しかしながら、そのような改変には、製造期間や製造コストがかかる。
上記背景に鑑み、既存のソフトウェアのコンテンツに関する情報から、動画データとその付帯データを容易に作成できる仕組みが望まれる。
一態様における情報処理方法は、コンピュータが、ソフトウェアの実行により得られるコンテンツの録画によって動画データを作成することと、前記コンテンツに関するコンテンツ情報に基づいて前記動画データに関連する付帯データの作成を行うことと、を実行することを含む。
一態様における情報処理システムは、ソフトウェアの実行により得られるコンテンツの録画によって動画データを作成する録画ユニットと、前記コンテンツに関するコンテンツ情報に基づいて前記動画データに関連する付帯データの作成を行うデータ処理ユニットと、を有する。
一態様におけるプログラムは、上記の情報処理方法をコンピュータに実行させるプログラムである。
一態様におけるコンピュータ端末は、上記の情報処理方法によって作成された前記動画データと、上記の情報処理方法によって作成された前記付帯データに基づく前記動画データに関連する情報とを、受信する。
上記態様によれば、既存のソフトウェアのコンテンツに関する情報から、動画データとその付帯データを容易に作成できる。
図1は、第1実施形態における情報処理システムの構成を示すブロック図である。 図2は、付帯データのデータ構造を説明するための図である。 図3は、第1実施形態における情報処理方法の一例を示すフローチャートである。 図4は、ユーザ端末に表示される画面の一例を示す図である。 図5は、ユーザ端末に表示される画面の別の例を示す図である。
以下、図面を参照して、実施形態について説明する。以下の図面において、同一又は類似の部分には、同一又は類似の符号を付している。
[第1実施形態]
図1は、第1実施形態における情報処理システムの構成を示すブロック図である。図2は、付帯データのデータ構造を説明するための図である。図3は、第1実施形態における情報処理方法の一例を示すフローチャートである。
情報処理システム100は、録画ユニット110と、データ処理ユニット120と、自動進行ユニット130と、動画配信ユニット140と、を有していてよい。
図1では、情報処理システム100が、録画ユニット110と、データ処理ユニット120と、自動進行ユニット130と、動画配信ユニット140のすべて含むよう描かれているが、これらの構成要素は、それぞれ別のコンピュータに設けられていてもよい。すなわち、情報処理システム100は、分散型のコンピュータシステムを構成していてもよい。
録画ユニット110は、情報処理システム100で実行されたソフトウェアによって得られるコンテンツを録画するよう構成されている。そのようなソフトウェアは、特に制限されないが、例えばスタンドアローン型アプリケーション又はネイティブアプリケーションであってよい。
好ましくは、情報処理システム100で実行されるソフトウェアは、ゲーム用ソフトウェアであってよい。ゲーム用ソフトウェアのジャンルは、特に制限されないが、例えばビジュアルノベルや選択式アドベンチャーゲームのように、ストーリを楽しむタイプのゲームであってもよい。
ソフトウェアが実行されると、ソフトウェアのコンテンツを表示した画面がウィンドウに表示される。録画ユニット110は、当該ウィンドウに表示される画像もしくは映像を動画データとして記録するよう構成されている。
自動進行ユニット130は、必要に応じて設けられていればよく、必須の構成要素ではない。自動進行ユニット130は、実行されたソフトウェアのコンテンツに関する操作を自動で進行するよう構成されていてよい。自動進行ユニット130は、例えば、通常のファンクションキーやシフトキーやエンターキー等による操作(指令)を、実行されたソフトウェアに関するプロセスメモリに自動的に入力するよう構成されていてよい。
自動進行ユニット130によるこのような処理は、例えば予めプログラムしておくことによって実現可能であり、また人工知能(AI)による自動進行によっても実現可能である。自動進行ユニット130は、例えば予めプログラムしておいた仮想的なソフトウェアへのキーボード入力(仮想的な入力装置によるデータの入力)によって、自動的にソフトウェアを進行させてもよい。
一例では、自動進行ユニット130は、コンテンツの進行が所定の期間停止したときに、コンテンツを進行させる処理を実行するよう構成されていてよい。当該所定の期間は、例えば2秒以上、3秒以上、又は5秒以上等であってよい。ソフトウェアが、例えばビジュアルノベルや選択式アドベンチャーゲームである場合、コンテンツの進行の停止は、ユーザによる入力操作を待っている状態であることが多い。自動進行ユニット130は、このような入力操作を待っている状態で、自動的に入力操作に相当する指令を与えればよい。なお、複数の選択肢のうちの1つの入力を待っている状態であれば、自動進行ユニット130は、予めプログラムされたとおり、又はランダムに、複数の選択肢のうちの1つを自動入力すればよい。
自動進行ユニット130が設けられていない場合、実行中のソフトウェアのコンテンツの進行は、人によって入力装置を操作することによって行われてもよい。入力装置は、例えばキーボード、マウス、専用のコントローラ及び/又はタッチパネル等であってよい。
データ処理ユニット120は、上記コンテンツに関する情報(コンテンツ情報)を読み取り可能に構成されている。データ処理ユニット120は、コンテンツ情報を、ソフトウェアの実行中、具体的にはコンテンツの録画中に、リアルタイムに読み取ることが好ましい。データ処理ユニット120は、例えばメモリの読み取り、プロセスメモリの読み取り、ソフトウェアの情報を記憶するファイルの読み取り、及び/又はソフトウェアにより実行されている関数の監視、等により、コンテンツ情報を読み取ることができる。ソフトウェアにより実行されている関数は、例えばテキストデータや音声データを格納する関数であってよい。これにより、データ処理ユニット120は、録画ユニット110によるコンテンツの録画中に、コンテンツ情報を取得することができる。
コンテンツ情報は、テキストデータと音声データのうちの少なくとも一方を含んでいてよい。好ましくは、コンテンツ情報は、少なくともテキストデータを含む。
データ処理ユニット120は、取得したコンテンツ情報に基づいて、動画データに関連する付帯データの作成を行う。すなわち、データ処理ユニット120は、録画ユニット110により生成される動画データに関連する付帯データを自動で作成することができる。
付帯データは、動画データに関連するデータであれば、特に制限されない。一例では、付帯データは、コンテンツの録画時刻とコンテンツ情報の少なくとも一方を含む。ここで、コンテンツ情報は、前述したようにテキストデータを含んでいてもよく、テキストデータと音声データのうちの少なくとも一方を含んでいてもよい。
好ましくは、付帯データは、コンテンツの録画時刻と、当該録画時刻に関連付けられたテキストデータと、を関連付けて記録したものであってもよい(図2参照)。この場合、生成される動画データの録画時刻と、当該録画時刻における画像に関連したテキストデータの内容が、付帯データとして記憶される。データ処理ユニット120が、ソフトウェアの実行中にリアルタイムにコンテンツ情報を読み取る場合、テキストデータのようなコンテンツ情報が、それが使用されている録画時刻とセットで記録され得る。したがって、動画データの再生時には、動画データの再生時間に沿った内容のテキストデータが、付帯データの内容から判別できる。
より好ましくは、付帯データは、コンテンツの録画時刻210、当該録画時刻に関連付けられたテキストデータ240,250、動画データのチャプタ220、動画データのパラグラフ230、を関連付けて記録したものであってもよい(図2も参照)。付帯データは、動画データの再生時に利用され得る。
第1実施形態に係る情報処理方法の一例について説明する。情報処理システム100を構成するコンピュータ(録画ユニット110)は、ソフトウェアの実行により得られるコンテンツの録画によって動画データを作成する。情報処理システム100を構成するコンピュータ(データ処理ユニット120)は、ソフトウェアの実行により得られるコンテンツに関する情報(コンテンツ情報)を読み取り、コンテンツ情報に基づいて、動画データに関連する付帯データの作成を行う。
具体的には、図3に示されているように、ソフトウェア、例えばゲーム用のソフトウェアが実行されると、録画ユニット110は、ソフトウェアの実行により得られるコンテンツの録画を開始する(ステップS1)。これに伴い、データ処理ユニット120は、好ましくはリアルタイムにコンテンツ情報を取得する(ステップS2)。コンテンツ情報の取得の方法は、前述したとおりである。コンテンツ情報の取得は、時間をあけて継続的に行われてよい。なお、データ処理ユニット120が、ソフトウェアにより実行されている関数の監視によりコンテンツ情報を読み取る場合、データ処理ユニット120は、ソフトウェアの実行におけるプロセス内で当該関数が呼び出されたかどうかを監視し、当該関数が呼び出されたときに当該関数に格納されたコンテンツ情報を取得すればよい。
次に、データ処理ユニット120は、取得したコンテンツ情報に変化があったかどうか判断する(ステップS3)。コンテンツ情報の変化があったと判断されたとき、付帯データの作成が行われる(ステップS4)。なお、データ処理ユニット120が、ソフトウェアにより実行されている関数の監視によりコンテンツ情報を読み取る場合、ソフトウェアの実行におけるプロセス内で当該関数が呼び出されたとき、通常、当該関数に格納されたコンテンツ情報は以前から変わっている。したがって、データ処理ユニット120は、当該関数が呼び出されたときにコンテンツ情報に変化があったと判断し、付帯データとして当該コンテンツ情報を記録してもよい。したがって、「コンテンツ情報の変化があったと判断されたとき」は、「ソフトウェアにより実行されている特定の関数が呼び出されたとき」を含む概念であると言える(以下、同様。)。
付帯データは、コンテンツの録画時刻とコンテンツ情報の少なくとも一方を含んでいてよい。具体的には、付帯データの作成は、コンテンツ情報の変化があったと判断された時点における録画時刻を記録することを含むことが好ましい。この場合、付帯データは、図3に示すように、録画開始から測定した録画時刻を含む。なお、データ処理ユニット120が、ソフトウェアにより実行されている関数の監視によりコンテンツ情報を読み取る場合、当該関数が呼び出されたときにコンテンツ情報に変化があったと判断されるため、録画時刻は当該関数が呼び出された時点における録画時刻であってもよい。なお、録画時刻は、ソフトウェアの開始から経過した時刻によって定義されてもよい。
好ましくは、付帯データの作成は、録画時刻と、録画時刻に関連付けられたテキストデータと、を関連付けて記録することを含む。この場合、付帯データは、図3に示すように、録画開始から測定した録画時刻と、当該録画時刻にソフトウェアによって使用されているテキストデータと、を含んでいてよい(図3も参照)。例えば、情報処理システム100で実行されるソフトウェアがビジュアルノベルや選択式アドベンチャーゲームであれば、コンテンツに登場する人物のセリフ等のテキストデータが存在する。このテキストデータが、録画時刻、すなわちコンテンツ開始から計測された時刻とともに記録される。
なお、データ処理ユニット120は、録画時刻とコンテンツ情報の記録だけでなく、コンテンツ情報に基づいてチャプタ220やパラグラフ230の情報を付加してもよい。チャプタやパラグラフの情報は、動画データの区切りを示す指標となるものである。チャプタやパラグラフの情報は、例えばコンテンツ情報に基づいて決められていてよい。
例えば、ソフトウェアが例えばビジュアルノベルや選択式アドベンチャーゲームのようなソフトウェアである場合、コンテンツ情報は、コンテンツに登場するキャラクタに紐づけられた第1テキストデータと、キャラクタに紐づけられていない第2テキストデータとを有することがある。この場合、第1テキストデータは、キャラクタのセリフに相当するテキストデータであってよい。また、第2テキストデータは、例えば背景や情景等を説明する地の文章に相当するテキストデータであってよい。これらの第1テキストデータや第2テキストデータは、前述したコンテンツ情報に含まれるものである。
一例では、データ処理ユニット120は、第2テキストデータに変更があったときに、少なくとも、録画時刻210と、チャプタを示す数値220と、第2テキストデータ250とを紐づけて記録してよい。ここで、チャプタを示す数値220は、第2テキストデータに変更があったときに、1だけ増加させればよい。これにより、第2テキストデータが変わった時に、動画データが別のチャプタに移行したことを示すことができる。なお、第2テキストデータに変更があったときに、後述するパラグラフを示す数値230は、「0」に設定されてもよい。
一例では、データ処理ユニット120は、第1テキストデータに変更があったときに、録画時刻210と、パラグラフを示す数値230と、第1テキストデータ240とを紐づけて記録してよい。ここで、パラグラフを示す数値230は、第1テキストデータに変更があったときに、1だけ増加させればよい。これにより、第1テキストデータが変わった時に、動画データが別のパラグラフに移行したことを示すことができる。
上記例の代わりに、チャプタ及び/又はパラグラフを示す数値220,230は、人による入力によって設定されてもよい。
付帯データの作成の処理を行った後(ステップS4)、再び、コンテンツ情報に変化があったかどうか判断する(ステップS2~S3)。コンテンツ情報に変化があった場合には、前述した付帯データの作成の処理を行う(ステップS4)。
コンテンツ情報に変化がなかった場合には、データ処理ユニット120は、コンテンツが終了したかどうかを判断する(ステップS5)。コンテンツの終了は、予め決められた規則にしたがって判断すればよい。例えば、ソフトウェアがゲーム用ソフトウェアである場合、コンテンツの終了は、例えばゲームを最後まで攻略したかどうかという判断によって実現できる。ゲームの攻略時に表示されるべきテキストデータを予め人により特定しておくことによって、データ処理ユニット120は、コンテンツの終了を自動的に特定できる。
コンテンツが終了したと判断された場合、録画ユニット110による録画を終了し(ステップS6)、ソフトウェアを停止すればよい。コンテンツが終了したと判断されなかった場合には、データ処理ユニット120は、再び、コンテンツ情報に変化があったかどうか判断すればよい(ステップS2~S3)。このステップを繰り返すことによって、一連の付帯データが作成される。
上記の一連のステップにより作成された動画データや付帯データは、必要に応じて作業者によって修正されてもよい。作業者は、例えば、動画データの一部を編集やカットしたり、動画データに別の動画データを付加したりしてもよい。同様に、作業者は、例えば、付帯データの一部を編集、カットしたり、付帯データとして別のデータを付加したりしてもよい。この場合であっても、付帯データのベースが上記ステップにより自動的に作成されているため、作業者の負荷は小さい。
上記の一連のステップにおいて、自動進行ユニット130が、コンテンツに関する操作を自動で進行させていてよい。自動進行ユニット130による自動進行は、前述したように実施できる。この代わりに、コンテンツの進行は、ユーザによる入力装置からの入力に応じて実施してもよい。
動画配信ユニット140は、ネットワークを介して接続されたユーザ端末(コンピュータ)900に、録画ユニット110により生成された動画データを配信する。
ユーザ端末900は、ネットワークに接続可能なコンピュータであれば特に制限されない。ユーザ端末900は、パーソナルコンピュータ、又はスマートフォンのような携帯端末などであってよい。
ユーザ端末900は、ネットワークを介して情報処理システム100に接続可能である。情報処理システム100とユーザ端末900とは、ネットワーク経由でデータを互いに送信/受信できる。ネットワークは、インターネット、エクストラネット、又はイントラネットのように様々ネットワーク(以下、単に「ネットワーク」と称する。)であってよい。
図1では、後述する動画配信ユニット140は、録画ユニット110やデータ処理ユニット120等と同じコンピュータシステム内に設けられているように描かれている。しかしながら、動画配信ユニット140は、録画ユニット110やデータ処理ユニット120とは異なるコンピュータに設けられていてもよい。この場合、動画配信ユニット140は、録画ユニット110により生成された動画データや、データ処理ユニット120により生成された付帯データ等を取得しておいてよい。動画データや付帯データが上記のように作業者によって修正されている場合、動画配信ユニット140は、修正された動画データや付帯データを取得しておけばよい。
好ましくは、動画配信ユニット140は、ユーザ端末900に、録画ユニット110により生成された動画データに基づく動画を提供するとともに、付帯データに基づいて動画データに関連する情報を提供する。したがって、ユーザ端末900は、上記の情報処理方法によって作成された動画データに基づく動画と、上記の情報処理方法によって作成された付帯データに基づく動画データに関連する情報とを受信するコンピュータ端末である。
ここで、動画データや付帯データが上記のように作業者によって修正されている場合、動画配信ユニット140は、ユーザ端末900に、修正された動画データを提供するとともに、修正された付帯データに基づいて動画データに関連する情報を提供すればよい。
ユーザ端末900は、ネットワークを介して動画配信ユニット140を有するコンピュータ、すなわち情報処理システム100に接続されていてよい。この場合、動画配信ユニット140は、ネットワークを介してユーザ端末900に、動画を提供するとともに、付帯データに基づいて動画データに関連する情報を提供する。この代わりに、ユーザ端末900は、USBメモリのような外部ストレージによって、動画データや付帯データを提供されてもよい。
図4は、ユーザ端末に表示される画面の一例を示す図である。図4に示すように、ユーザ端末900のWebブラウザ800上に、受信した動画データに相当する画像が表示されている。ブラウザ800には、動画データに相当する画像を再生する再生ボタン865や再生中の動画を停止する停止ボタン860が表示されていてもよい。停止ボタン860や再生ボタン865は、画像を表示している領域の外側に設けられていてもよい。
このブラウザ800内に、前述した付帯データに基づいて作成された動画データに関連する情報が表示されている。付帯データに基づいて作成された動画データに関連する情報は、例えばチャプタ情報820、再生時間810、再生時間810に紐づいた第1テキスト情報840、第2テキスト情報850等を有する。
再生時間810は、付帯データに記録された動画の録画時刻に相当するものであってよい。第1テキスト情報840は、図2に示す付帯データとして記録された第1テキストデータ240に相当するものであってよい。同様に、第2テキスト情報850は、図2に示す付帯データとして記録された第2テキストデータ250に相当するものであってよい。
チャプタ情報820は、付帯データとして記録されたチャプタを示す数値220に対応づいている。チャプタ情報820及び第2テキスト情報850は、動画データの再生時間に応じて、付帯データに基づき変動する。
情報処理システムは、図2に示すような付帯データに基づいて、動画データを特定の時刻から再生させる時間指定リンクを提供することが好ましい。時間指定リンクは、例えば再生時間810及び/又は第1テキスト情報840に付与されていてよい。この場合、ユーザ端末900において、再生時間810及び/又は第1テキスト情報840上を例えばクリック又はタップ操作することによって、それに対応する再生時間810に動画データの表示をジャンプさせることができる。
ユーザ端末900のブラウザには、少なくとも現在の再生時間よりも前の時間帯における再生時間810及び/又は第1テキスト情報840が表示されることが好ましい。再生時間810及び/又は第1テキスト情報840の数が多い場合、特定の再生時間810及び/又は第1テキスト情報840が表示できるよう、例えばスクロールバー880等の操作によりスクロール可能になっていてよい。再生時間810及び/又は第1テキスト情報840のスクロールは、任意のタイミングで実行可能に構成されていてよい。例えば、再生時間810及び/又は第1テキスト情報840のスクロールは、動画の再生中もしくは停止中のいずれのタイミングにおいても実行可能であってよい。これにより、ユーザ端末900を操作するユーザは、少なくとも現在の再生時間よりも前の時間帯における好きな場面へ遡ることができる。
さらに、ユーザが再生時間810及び/又は第1テキスト情報840をスクロールさせた場合であっても、現在の再生時間810と第1テキスト情報840を表示させるようスクロールを戻す機能が設けられていてもよい。スクロールを戻す機能は、例えば動画の再生ボタン865であってもよく、スクロールを戻す専用の不図示のボタン等であってもよい。
情報処理システム100及び/又はユーザ端末900は、テキスト音声変換機能を有していても良い。テキスト音声変換機能は、テキスト情報を音声化する機能である。これにより、例えば本来のソフトウェアでは音声化されていないテキスト情報を音声化することも可能である。例えば、第1テキスト情報840及び/又は第2テキスト情報850がテキスト音声変換機能によって音声化されていてもよい。情報処理システム100がテキスト音声変換機能を有する場合には、音声化された情報がユーザ端末900に配信されることになる。ユーザ端末900がテキスト音声変換機能を有する場合には、情報処理システム100から受信したテキスト情報がユーザ端末900にて音声化される。これにより、ユーザ900は、文章を読むことなく、耳でコンテンツを楽しむことも可能になる。
また、情報処理システム100及び/又はユーザ端末900は、自動翻訳機能を有していても良い。自動翻訳機能は、ある言語のテキスト情報もしくは音声情報を、別の言語のテキスト情報もしくは音声情報に翻訳する機能である。自動翻訳機能は、例えば日本語のテキスト情報もしくは音声情報を、英語のテキスト情報もしくは音声情報に翻訳する。情報処理システム100が自動翻訳機能を有する場合には、ユーザ端末900からの指令に応じて、情報処理システム100は翻訳後の言語でテキスト情報や音声情報を配信すればよい。ユーザ端末900が自動翻訳機能を有する場合には、情報処理システム100の動画配信ユニット140から取得したテキスト情報もしくは音声情報を、自動で指定した言語に翻訳することができる。
動画配信ユニット140は、2つのモードで動画データを配信するよう構成されていてもよい。第1モードは、付帯データに記録された時刻に基づいて得られた再生時間に基づいて動画データの再生を自動停止するモードに相当する。第1モードでは、ユーザ端末900における動画データの再生は、特定の再生時間810に達したときに自動停止する。この場合、情報処理システムは、ユーザ端末900からの指令を受けたときに、動画データの再生を再開する。そのような指令は、例えば所定のボタンや画面のクリック又はタップ操作等であってよい。第1モードでは、ユーザ端末900を操作するユーザは、所定の操作をする度に動画データに基づくコンテンツを進行させることができる。これにより、ユーザは、ゲームを楽しむような感覚を得られる。
第2モードは、付帯データに記録された時刻に基づいて得られた再生時間にかかわらず動画データの再生を継続するモードである。第2モードでは、ユーザは、ユーザ端末900において何らかの操作をすることなく、動画データに基づくコンテンツの進行を楽しむことができる。
情報処理システム100は、ネットワークを介して接続されたユーザ端末900からの指令に応じて、上記の第1モードと上記の第2モードとを切り替えることを含んでいてよい。図4に示す態様では、第1モードと第2モードの切り替えを選択するボタン870が表示されている。ユーザは、ユーザ端末900においてボタン870を選択することによって、第1モードと第2モードとを切り替えることができる。
ユーザ端末900のブラウザ800内には、動画データの再生箇所を表示するシークバーが設けられていてもよい。この場合、ユーザは、ユーザ端末900のブラウザ800内におけるシークバー890を用いて動画データの再生箇所を自由に変更することができる。例えば元のソフトウェアがゲーム用のソフトウェアである場合、ユーザは、情報処理システムから受信した動画データの再生箇所をシークバー890により自由に変更することで、ゲームをスキップしたり戻したりして楽しむことも可能になる。
図5は、ユーザ端末に表示される画面の別の例を示す図である。図5は、例えばスマートフォンや携帯型情報端末のような縦長の画面を有するユーザ端末900を模式的に示している。図5において、ユーザ端末900は、図4に示された画面の情報と同様の情報を表示している。ただし、図5では、動画データの表示部分の下方に、チャプタ情報820、再生時間810、再生時間810に紐づいた第1テキスト情報840、第2テキスト情報850等が表示されている。これにより、縦長の画面において第1テキスト情報840や第2テキスト情報850の文字サイズが比較的大きくなる。
前述した実施形態では、録画ユニット110は、本来のソフトウェアにおける動画データと音楽データの両方を記録する。この代わりに、録画ユニット110は、本来のソフトウェアにおける動画データと音楽データとを別々に記録してもよい。この場合、録画ステップにおいて、動画データと音楽データの両方が生成される。
さらに、情報処理システム100は、別々に生成された音楽データと動画データを、ユーザ端末900へ別々に配信してもよい。すなわち、情報処理システム100は、別々のインスタンスとして、音楽データと動画データをユーザ端末900へ配信する。この場合、ユーザ端末900は、音楽データと動画データを独立に再生することが可能になる。例えば動画データを停止した状態で音楽データを再生した状態が実現可能になる。
好ましくは、前述した第1モードにおいて、ユーザ端末900における動画データの再生は、特定の再生時間810に達したときに自動停止するが、このときに音楽データの再生を継続させた状態にすることができる。これにより、前述した第1モードにおいて、動画データが自動停止する度に音楽も停止することを防止することができる。これにより、ユーザ端末900を操作するユーザは、動画データに基づくコンテンツをよりゲーム感覚で楽しむことができる。
上記態様によれば、既存のソフトウェアのコンテンツに関する情報から、ネットワークを介して配信可能な動画データとその付帯データを容易に作成できる。これにより、ユーザ端末900を操作するユーザは、既存のソフトウェアのコンテンツを動画として楽しむことができる。また、ユーザ端末900を操作するユーザは、ユーザ端末900から遠隔でソフトウェア自体を毎回起動し、操作しなくても、ソフトウェアのコンテンツを楽しむことができる。
第1実施形態で説明した情報処理をコンピュータが行う方法も本発明の範囲に含まれることに留意されたい。さらに、そのような方法をコンピュータに実行させるプログラムも本発明の範囲に含まれる。
このようなコンピュータプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)に格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。
非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
上記の実施形態等の説明から少なくとも以下の付記に示す発明が開示されていることに留意されたい。
[付記1]
コンピュータが、
ソフトウェアの実行により得られるコンテンツの録画によって動画データを作成することと、
前記コンテンツに関するコンテンツ情報に基づいて前記動画データに関連する付帯データの作成を行うことと、
を実行することを含む、情報処理方法。
[付記2]
前記コンテンツ情報は、テキストデータと音声データのうちの少なくとも一方を含む、付記1に記載の情報処理方法。
[付記3]
前記付帯データは、前記コンテンツの録画時刻と前記コンテンツ情報の少なくとも一方を含む、付記1又は2に記載の情報処理方法。
[付記4]
前記付帯データの作成は、前記コンテンツ情報の変化があったと判断された時点における録画時刻を記録することを含む、付記1から3のいずれか1項に記載の情報処理方法。
[付記5]
前記付帯データの作成は、録画時刻と、前記録画時刻に関連付けられたテキストデータと、を関連付けて記録することを含む、付記1から4のいずれか1項に記載の情報処理方法。
[付記6]
前記動画データの作成は、音楽データと動画データを別々に記録することを含む、付記1から5のいずれか1項に記載の情報処理方法。
[付記7]
前記ソフトウェアはスタンドアローン型アプリケーション又はネイティブアプリケーションである、付記1から6のいずれか1項に記載の情報処理方法。
[付記8]
前記コンピュータが、前記コンテンツに関する操作を自動で進行することを含む、付記1から7のいずれか1項に記載の情報処理方法。
[付記9]
前記コンピュータが、コンピュータ端末に、前記動画データに基づく動画を提供するとともに、前記付帯データに基づいて前記動画データに関連する情報を提供することを含む、付記1から8のいずれか1項に記載の情報処理方法。
[付記10]
前記コンピュータが、前記付帯データに基づいて前記動画データを特定の時刻から再生させる時間指定リンクを提供することを含む、付記1から9のいずれか1項に記載の情報処理方法。
[付記11]
前記コンピュータは、コンピュータ端末に、前記動画データに基づく動画を提供することと、前記付帯データに記録された時刻に基づいて得られた再生時間に基づいて動画データの再生を自動停止することと、を含む、付記1から10のいずれか1項に記載の情報処理方法。
[付記12]
前記コンピュータは、前記音楽データと前記動画データを別々に配信することを含む、付記6に記載の情報処理方法。
[付記13]
前記付帯データに基づいて得られた再生時間に基づいて前記動画データの再生を自動停止する第1モードと、
前記付帯データに基づいて得られた再生時間にかかわらず前記動画データの再生を継続する第2モードと、を有し、
前記コンピュータは、ネットワークを介して接続されたコンピュータからの指令に応じて、前記第1モードと前記第2モードとを切り替えることを含む、付記1から12のいずれか1項に記載の情報処理方法。
[付記14]
付記1から13のいずれか1項に記載の情報処理方法をコンピュータに実行させるプログラム。
[付記15]
付記1から13のいずれか1項に記載の情報処理方法によって作成された前記動画データに基づく動画と、付記1から13のいずれか1項に記載の情報処理方法によって作成された前記付帯データに基づく前記動画データに関連する情報とを受信するコンピュータ端末。
[付記16]
ソフトウェアの実行により得られるコンテンツの録画によって動画データを作成する録画ユニットと、
前記コンテンツに関するコンテンツ情報に基づいて前記動画データに関連する付帯データの作成を行うデータ処理ユニットと、を有する、情報処理システム。
上述したように、実施形態を通じて本発明の内容を開示したが、この開示の一部をなす論述及び図面は、本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替の実施形態、実施例及び運用技術が明らかとなる。したがって、本発明の技術的範囲は、上述の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものであることに留意されたい。
100 情報処理システム
110 録画ユニット
120 データ処理ユニット
130 自動進行ユニット
140 動画配信ユニット
900 ユーザ端末

Claims (16)

  1. コンピュータが、
    ソフトウェアの実行により得られるコンテンツの録画によって動画データを作成することと、
    前記ソフトウェアにより実行されている関数の監視又はプロセスメモリを通じて前記コンテンツに関するコンテンツ情報を読み取り、前記コンテンツ情報に基づいて前記動画データに関連する付帯データの作成を行うことと、
    を実行することを含む、情報処理方法。
  2. 前記コンテンツ情報は、テキストデータと音声データのうちの少なくとも一方を含む、請求項1に記載の情報処理方法。
  3. 前記付帯データは、前記コンテンツの録画時刻と前記コンテンツ情報の少なくとも一方を含む、請求項1に記載の情報処理方法。
  4. 前記付帯データの作成は、前記コンテンツ情報の変化があったと判断された時点における録画時刻を記録することを含む、請求項1に記載の情報処理方法。
  5. 前記付帯データの作成は、録画時刻と、前記録画時刻に関連付けられたテキストデータと、を関連付けて記録することを含む、請求項1に記載の情報処理方法。
  6. 前記動画データの作成は、音楽データと動画データを別々に記録することを含む、請求項1に記載の情報処理方法。
  7. 前記ソフトウェアはスタンドアローン型アプリケーション又はネイティブアプリケーションである、請求項1に記載の情報処理方法。
  8. 前記コンピュータが、前記コンテンツに関する操作を自動で進行することを含む、請求項1に記載の情報処理方法。
  9. 前記コンピュータが、コンピュータ端末に、前記動画データに基づく動画を提供するとともに、前記付帯データに基づいて前記動画データに関連する情報を提供することを含む、請求項1に記載の情報処理方法。
  10. 前記コンピュータが、前記付帯データに基づいて前記動画データを特定の時刻から再生させる時間指定リンクを提供することを含む、請求項1に記載の情報処理方法。
  11. 前記コンピュータは、コンピュータ端末に、前記動画データに基づく動画を提供することと、前記付帯データに基づいて得られた再生時間に基づいて動画データの再生を自動停止することと、を含む、請求項1に記載の情報処理方法。
  12. コンピュータが、
    ソフトウェアの実行により得られるコンテンツの録画によって動画データを作成することと、
    前記コンテンツに関するコンテンツ情報に基づいて前記動画データに関連する付帯データの作成を行うことと、を実行することを含み、
    前記付帯データに基づいて得られた再生時間に基づいて前記動画データの再生を自動停止する第1モードと、
    前記付帯データに基づいて得られた再生時間にかかわらず前記動画データの再生を継続する第2モードと、を有し、
    前記コンピュータは、ネットワークを介して接続されたコンピュータからの指令に応じて、前記第1モードと前記第2モードとを切り替えることを含む、情報処理方法。
  13. 請求項1又は12に記載の情報処理方法をコンピュータに実行させるプログラム。
  14. 請求項1又は12に記載の情報処理方法によって作成された前記動画データに基づく動画と、請求項1又は12に記載の情報処理方法によって作成された前記付帯データに基づく前記動画データに関連する情報とを受信するコンピュータ端末。
  15. ソフトウェアの実行により得られるコンテンツの録画によって動画データを作成する録画ユニットと、
    前記ソフトウェアにより実行されている関数の監視又はプロセスメモリを通じて前記コンテンツに関するコンテンツ情報を読み取り、前記コンテンツ情報に基づいて前記動画データに関連する付帯データの作成を行うデータ処理ユニットと、
    を有する、情報処理システム。
  16. ソフトウェアの実行により得られるコンテンツの録画によって動画データを作成する録画ユニットと、
    前記コンテンツに関するコンテンツ情報に基づいて前記動画データに関連する付帯データの作成を行うデータ処理ユニットと、
    前記付帯データに基づいて得られた再生時間に基づいて前記動画データの再生を自動停止する第1モードと、
    前記付帯データに基づいて得られた再生時間にかかわらず前記動画データの再生を継続する第2モードと、
    ネットワークを介して接続されたコンピュータからの指令に応じて、前記第1モードと前記第2モードとを切り替える手段と、を有する、情報処理システム。
JP2022119125A 2022-07-26 2022-07-26 情報処理システム及び情報処理方法 Active JP7156748B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022119125A JP7156748B1 (ja) 2022-07-26 2022-07-26 情報処理システム及び情報処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022119123A JP2024016770A (ja) 2022-07-26 2022-07-26 情報処理システム及び情報処理方法
JP2022119125A JP7156748B1 (ja) 2022-07-26 2022-07-26 情報処理システム及び情報処理方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022119123A Division JP2024016770A (ja) 2022-07-26 2022-07-26 情報処理システム及び情報処理方法

Publications (2)

Publication Number Publication Date
JP7156748B1 true JP7156748B1 (ja) 2022-10-19
JP2024016772A JP2024016772A (ja) 2024-02-07

Family

ID=89808331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022119125A Active JP7156748B1 (ja) 2022-07-26 2022-07-26 情報処理システム及び情報処理方法

Country Status (1)

Country Link
JP (1) JP7156748B1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010214028A (ja) 2009-03-19 2010-09-30 Sony Computer Entertainment Inc プログラム、情報記憶媒体、画像処理装置、画像処理方法及びデータ構造
JP2018011849A (ja) 2016-07-22 2018-01-25 株式会社タイトー 動画記録装置、動画配信方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010214028A (ja) 2009-03-19 2010-09-30 Sony Computer Entertainment Inc プログラム、情報記憶媒体、画像処理装置、画像処理方法及びデータ構造
JP2018011849A (ja) 2016-07-22 2018-01-25 株式会社タイトー 動画記録装置、動画配信方法及びプログラム

Also Published As

Publication number Publication date
JP2024016772A (ja) 2024-02-07

Similar Documents

Publication Publication Date Title
US20150058732A1 (en) Content playback apparatus, content playback method and storage medium
JP2008219920A (ja) テレビジョン・ニュース用オーディオビジュアル作業および対応するテキストのための編集システム
JP4741406B2 (ja) ノンリニア編集装置およびそのプログラム
JP2010057145A (ja) 電子機器、動画像データ区間変更方法及びプログラム
JP2007087573A (ja) 複数個のアプリケーションの表示される画面で、ボタン間にフォーカシングを移動させる方法、その装置及びその情報記録媒体
US20220066990A1 (en) Presenting and editing recent content in a window during an execution of a content application
JP4532786B2 (ja) 画像処理装置及びその方法
JP4296145B2 (ja) 再生装置及びその方法
US11551724B2 (en) System and method for performance-based instant assembling of video clips
KR0176961B1 (ko) 캡션지향 화면 검색기능의 비디오cd재생장치 및 캡션지향 화면 검색방법
JP7156748B1 (ja) 情報処理システム及び情報処理方法
JP2005341182A (ja) 料理レシピ編集提示システム
KR20090124240A (ko) 자막 편집 장치 및 그 방법
JP2024016770A (ja) 情報処理システム及び情報処理方法
JP3670456B2 (ja) 情報記憶媒体再生装置、情報記憶媒体再生方法、及び記憶媒体
JPH05242166A (ja) マルチメディアデータ編集/提示方式
JPH01300779A (ja) 静止画ファイル編集装置
JP5765592B2 (ja) 動画再生装置、動画再生方法、動画再生プログラム、動画再生制御装置、動画再生制御方法及び動画再生制御プログラム
KR101369458B1 (ko) 음원 파일을 편집하는 장치 및 방법
US8340508B2 (en) Record/playback apparatus and control method therefor
JP2003030675A (ja) 画像編集装置及び方法、画像記録再生装置並びにコンピュータプログラム
JP2005302155A (ja) 情報再生装置、情報再生方法、コンピュータで実行可能なプログラム、及び記録媒体
JP7236570B1 (ja) システム、通信端末、及び方法
JP6646172B1 (ja) 多言語コンテンツの教育用再生方法、そのためのデータ構造及びプログラム
JP2009225354A (ja) スライド再生装置、スライド再生システム、およびスライド再生プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220726

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220929

R150 Certificate of patent or registration of utility model

Ref document number: 7156748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150