JP2021132328A - Information processing method, information processing device, and computer program - Google Patents
Information processing method, information processing device, and computer program Download PDFInfo
- Publication number
- JP2021132328A JP2021132328A JP2020027209A JP2020027209A JP2021132328A JP 2021132328 A JP2021132328 A JP 2021132328A JP 2020027209 A JP2020027209 A JP 2020027209A JP 2020027209 A JP2020027209 A JP 2020027209A JP 2021132328 A JP2021132328 A JP 2021132328A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- image data
- editing
- information processing
- server device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 53
- 238000003672 processing method Methods 0.000 title claims abstract description 19
- 238000004590 computer program Methods 0.000 title claims abstract description 5
- 238000000034 method Methods 0.000 claims description 215
- 238000012545 processing Methods 0.000 claims description 133
- 230000008569 process Effects 0.000 claims description 101
- 230000008859 change Effects 0.000 claims description 22
- 230000000694 effects Effects 0.000 claims description 18
- 239000000284 extract Substances 0.000 abstract description 20
- 238000003860 storage Methods 0.000 description 50
- 238000004891 communication Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000011156 evaluation Methods 0.000 description 12
- 238000000605 extraction Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 9
- 230000008921 facial expression Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000009193 crawling Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010422 painting Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、動画像データに対する編集処理を行う情報処理方法、情報処理装置及びコンピュータプログラムに関する。 The present invention relates to an information processing method, an information processing device, and a computer program that perform editing processing on moving image data.
近年、動画像を撮影することができる機器が広く普及しており、多くのユーザが簡単に動画像の撮影を行うことができる。しかし、撮影された動画像データに対する編集処理はある程度の知識及び技術等が必要であり、一般のユーザにとって動画像の編集は敷居が高いものであった。 In recent years, devices capable of capturing moving images have become widespread, and many users can easily capture moving images. However, the editing process for the captured moving image data requires a certain amount of knowledge and skill, and editing the moving image is a high threshold for general users.
特許文献1においては、動画の撮像時又は再生時に撮像した操作者の動画からこの操作者の顔の表情を数値化して評価値を算出し、算出した評価値を元の動画と同じタイムラインで記録し、記録した評価値に基づいて元の動画の部分動画を順次抽出してダイジェストを生成する動画像処理装置が提案されている。
In
しかしながら特許文献1に記載の動画像処理装置は、元の動画像から単に部分動画を抽出してダイジェストを生成するのみであり、ユーザによる動画像の編集の補助には不十分である。
However, the moving image processing device described in
本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、動画像の編集を容易化することが期待できる情報処理方法、情報処理装置及びコンピュータプログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an information processing method, an information processing device, and a computer program which can be expected to facilitate editing of moving images. It is in.
一実施形態に係る情報処理方法は、情報処理装置が動画像データを生成する情報処理方法であって、前記情報処理装置が、動画像データを取得し、取得した動画像データの特徴を特定し、特定した特徴に応じて前記動画像データの編集処理を行う。 The information processing method according to one embodiment is an information processing method in which an information processing device generates moving image data, and the information processing device acquires moving image data and identifies the characteristics of the acquired moving image data. , The moving image data is edited according to the specified feature.
一実施形態による場合は、動画像の編集を容易化することが期待できる。 In the case of one embodiment, it can be expected that the editing of moving images will be facilitated.
本発明の実施形態に係る情報処理システムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 A specific example of the information processing system according to the embodiment of the present invention will be described below with reference to the drawings. It should be noted that the present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
<システム構成>
図1は、本実施の形態に係る情報処理システムの概要を説明するための模式図である。本実施の形態に係る情報処理システムは、動画像の編集サービスを提供するサーバ装置1と、このサービスを利用するユーザが所持するスマートフォン又はタブレット端末装置等の端末装置3とを備えて構成されている。サーバ装置1及び端末装置3は、携帯電話通信網、無線LAN(Local Area Network)及びインターネット等を含むネットワークNを介して通信を行うことができる。
<System configuration>
FIG. 1 is a schematic diagram for explaining an outline of an information processing system according to the present embodiment. The information processing system according to the present embodiment includes a
例えばユーザは、端末装置3に搭載されたカメラにて動画像の撮影を行った後、撮影により得られた動画像データの自動編集を実施する指示を端末装置3へ与える。この指示に応じて端末装置3は、ネットワークNを介したサーバ装置1との通信を行うことにより、編集対象の動画像データをサーバ装置1へ送信する。サーバ装置1は、端末装置3から送信された動画像データを取得し、この動画像データに対して適宜の編集処理を行い、編集済みの動画像データを端末装置3へ返送する。端末装置3は、サーバ装置1から編集済みの動画像データを受信して記憶し、この動画像データの再生(表示)又はSNS(Social Networking Service)への投稿等の処理を行う。
For example, the user gives an instruction to the
図2は、本実施の形態に係るサーバ装置1の構成を示すブロック図である。本実施の形態に係るサーバ装置1は、処理部11、記憶部(ストレージ)12及び通信部(トランシーバ)13等を備えて構成されている。なお本実施の形態においては、1つのサーバ装置1にて処理が行われるものとして説明を行うが、複数のサーバ装置1が分散して処理を行ってもよい。
FIG. 2 is a block diagram showing a configuration of the
処理部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の演算処理装置、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等を用いて構成されている。処理部11は、記憶部12に記憶されたサーバプログラム12aを読み出して実行することにより、動画像データの編集に係る種々の処理を行う。
The
記憶部12は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部12は、処理部11が実行する各種のプログラム、及び、処理部11の処理に必要な各種のデータを記憶する。本実施の形態において記憶部12は、処理部11が実行するサーバプログラム12aと、編集処理に用いられる特徴特定モデル12b及び編集方法決定テーブル12cとを記憶している。
The
本実施の形態においてサーバプログラム12aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、サーバ装置1は記録媒体99からサーバプログラム12aを読み出して記憶部12に記憶する。ただし、サーバプログラム12aは、例えばサーバ装置1の製造段階において記憶部12に書き込まれてもよい。また例えばサーバプログラム12aは、遠隔の他のサーバ装置等が配信するものをサーバ装置1が通信にて取得してもよい。例えばサーバプログラム12aは、記録媒体99に記録されたものを書込装置が読み出してサーバ装置1の記憶部12に書き込んでもよい。サーバプログラム12aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。
In the present embodiment, the
本実施の形態に係るサーバ装置1は、いわゆる人工知能を活用して動画像データの編集処理を行うものであり、編集処理に用いる特徴特定モデル12bを有している。特徴特定モデル12bは、予め機械学習がなされた学習済の学習モデルであり、例えばニューラルネットワーク又はSVM(Support Vector Machine)等の学習モデルが採用され得る。特徴特定モデル12bは、例えばサーバプログラム12aと共に記録媒体99を介して提供されてもよく、また例えばサーバプログラム12aとは別に他のサーバ装置等により配信されてもよく、どのような態様で提供されてもよい。本実施の形態に係るサーバ装置1は、予め機械学習がなされた特徴特定モデル12bを取得して記憶部12に記憶している。また本実施の形態においては、特徴特定モデル12bを機械学習により生成する処理は、サーバ装置1とは別の装置にて行われるものとするが、これに限るものではなく、サーバ装置1が機械学習を行ってもよい。また特徴特定モデル12bをサーバ装置1が備えていなくてもよく、特徴特定モデル12bを備える他の装置に対してサーバ装置1がこの特徴特定モデル12bを用いる処理を依頼し、他の装置からサーバ装置1が処理結果を取得してもよい。
The
特徴特定モデル12bは、動画像データの入力に対して、この動画像データに含まれるシーンの特徴を特定した情報を出力する学習モデルである。特徴特定モデル12bは、例えばCNN(Convolutional Neural Network)又はRNN(Recurrent Neural Network)等の種々の学習モデルが採用され得る。本実施の形態において特徴特定モデル12bが入力を受け付けるデータは動画像データとするが、動画像データに加えて例えばGPS(Global Positioning System)による位置情報又は時刻情報等の種々の情報が入力されてもよい。特徴特定モデル12bが出力する情報には、例えば動画像に写っているもの(人物、自動車、自転車、建物、木、動物及び植物等)が何であるかを示す情報、写っているものの属性(表情、年齢、性別及び動作等)を示す情報、動画像が撮影された場所(屋内、屋外、海、山、森及び都市)がどこであるかを示す情報、動画像が撮影された時間帯(朝、昼、夕方又は夜等)を示す情報、及び、動画像が撮影された際の天候(晴、雨、曇又は雪等)を示す情報等の種々の情報が含まれ得る。なお特徴特定モデル12bは、1つの学習モデルとして実現されるのではなく、例えば動画像に写っているものを検出する学習モデル、写っているものの属性を検出する学習モデル等のように、複数の学習モデルの集合体として実現されてよい。
The feature-
編集方法決定テーブル12cは、動画像データに対して特定された特徴に係る一又は複数の情報であるシーン情報と、動画像データに対して行う編集方法とが対応付けて記憶されたテーブルである。図3は、編集方法決定テーブル12cの一例を示す模式図である。図示の編集方法決定テーブル12cでは、動画像データに関する天候、場所、時間帯、子供の有無、大人の有無及び自動車の有無等の特徴がシーン情報に含まれる特徴として例示されている。また図示の編集方法決定テーブル12cでは、これらのシーン情報の特徴の組み合わせに対して、編集方法として方法1及び方法2の2つが予め定められている。
The editing method determination table 12c is a table in which the scene information, which is one or more information related to the features specified for the moving image data, and the editing method performed for the moving image data are stored in association with each other. .. FIG. 3 is a schematic view showing an example of the editing method determination table 12c. In the illustrated editing method determination table 12c, features such as weather, place, time zone, presence / absence of children, presence / absence of adults, and presence / absence of automobiles related to moving image data are exemplified as features included in the scene information. Further, in the illustrated editing method determination table 12c, two editing methods,
本例の編集方法決定テーブル12cには、シーン情報として天候が晴、場所が屋外、時間帯が昼、子供が写っており性別が男且つ笑顔であるという特徴が動画像データから特定されている場合、笑いのエフェクト画像を追加する編集、及び、明るいBGMを追加する編集を行うことが編集方法として定められている。またシーン情報として場所が屋内、大人が写っており怒りを表しているという特徴が特定されている場合、怒りのエフェクト画像を追加する編集、及び、動画像に映された人物が発する声を変更する編集を行うことが編集方法として定められている。またシーン情報として場所が屋内、子供がハイハイ(四つ這い、ずり這い、いざり這い)しているという特徴が特定されている場合、キャラクタ画像を追加する編集を行うことが編集方法として定められている。また天候が雨、場所が屋外、時間帯が夕方、自動車が写っており走行しているという特徴が特定されている場合、動画をスロー再生する編集を行うことが編集方法として定められている。 In the editing method determination table 12c of this example, the characteristics that the weather is fine, the place is outdoors, the time zone is daytime, the child is shown, and the gender is male and smiling are specified from the moving image data as the scene information. In this case, it is defined as an editing method to perform editing to add a laughing effect image and editing to add a bright BGM. Also, if the scene information is indoors, and the feature that an adult is shown and represents anger is specified, edit to add an anger effect image and change the voice of the person reflected in the moving image. It is stipulated as an editing method to perform editing. In addition, when the feature that the place is indoors and the child is high-high (crawl on all fours, crawling, crawling) is specified as the scene information, editing to add a character image is defined as the editing method. There is. In addition, when the characteristics that the weather is rainy, the place is outdoors, the time zone is evening, and the car is in the picture and the car is running are specified, the editing method is defined as slow-playing the video.
なお上記の編集方法決定テーブル12cの内容は一例であって、これに限るものではない。シーン情報には、天候、場所、時間帯、子供の有無、大人の有無及び自動車の有無以外の種々の特徴が含まれ得る。編集方法は、シーン情報における1つの組み合わせに対して2つではなく、1つ又は3つ以上であってよい。 The content of the above-mentioned editing method determination table 12c is an example, and is not limited to this. The scene information may include various features other than weather, place, time zone, presence / absence of children, presence / absence of adults, and presence / absence of automobiles. The editing method may be one or three or more for one combination in the scene information, instead of two.
通信部13は、携帯電話通信網及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部13は、ネットワークNを介して、一又は複数の端末装置3との間で通信を行う。通信部13は、処理部11から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部11へ与える。
The
なお記憶部12は、サーバ装置1に接続された外部記憶装置であってよい。またサーバ装置1は、複数のコンピュータを含んで構成されるマルチコンピュータであってよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。またサーバ装置1は、上記の構成に限定されず、例えば可搬型の記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、又は、画像を表示する表示部等を含んでもよい。
The
また本実施の形態に係るサーバ装置1の処理部11には、記憶部12に記憶されたサーバプログラム12aを処理部11が読み出して実行することにより、動画像取得部11a、部分動画像抽出部11b、特徴特定部11c、編集方法決定部11d、編集処理部11e、結合処理部11f及び編集済動画像送信部11g等が、ソフトウェア的な機能部として処理部11に実現される。
Further, in the
動画像取得部11aは、自動編集の対象となる動画像データを端末装置3から取得する処理を行う。動画像取得部11aは、例えば端末装置3から編集処理を実施する依頼と共に送信される動画像データを通信部13にて受信し、受信した動画像データを記憶部12の空き領域等に記憶することで、動画像データを取得する。また動画像取得部11aは、動画像データと共に、例えばこの動画像データが撮影された日時又は場所等の情報を取得してもよい。撮影日時の情報は、例えば端末装置3のカレンダー機能及び時計機能等に基づいて動画像データに付され得る。撮影場所の情報は、例えば端末装置3が受信したGPS信号に基づいて特定され、動画像データに付され得る。
The moving
部分動画像抽出部11bは、編集対象の動画像データから一又は複数の部分動画像データを抽出する処理を行う。部分動画像抽出部11bは、いわゆるダイジェストを生成するための動画像抽出処理を行う。部分動画像抽出部11bは、例えば特定の人もしくは物が映されている部分、写されている人の動きが大きい部分、写されている人が笑顔である部分、写されている人数が多い部分、場面が切り替わる部分、又は、音声の音量が大きい部分等のように、所定の特徴を有する部分画像を動画像データの全体から抽出する。なお、部分動画像抽出部11bによる部分動画像データの抽出処理は、既存の技術であるため、詳細な説明を省略する。例えば部分動画像抽出部11bは、特許文献1に記載の動画像処理装置と同様の技術により、動画像の撮像時又は再生時に撮像した操作者の顔の表情を数値化して評価値を算出し、算出した評価値に基づいて部分動画像データを抽出してもよい。また例えば部分動画像抽出部11bは、特徴特定モデル12bにより動画像データに含まれる一又は複数のシーンの特徴を特定し、所定の特徴を有するシーンを部分動画像データとして抽出することができる。
The partial moving
特徴特定部11cは、記憶部12に記憶された特徴特定モデル12bを用い、部分動画像抽出部11bが抽出した一又は複数の部分動画像データに対して、この部分動画像データに含まれるシーンの特徴を特定する処理を行う。特徴特定部11cは、抽出された部分動画像データを特徴特定モデル12bへ入力し、特徴特定モデル12bが出力する特徴の特定結果を取得する。特徴特定部11cは、部分動画像データに対して特定された一又は複数の特徴をまとめたシーン情報を作成する。また特徴特定部11cは、部分動画像データの撮影日時及び撮影場所等の情報を特徴特定モデル12bへ入力する構成であってもよい。
The
編集方法決定部11dは、特徴特定部11cが特定した特徴に関するシーン情報と、記憶部12に記憶された編集方法決定テーブル12cとに基づいて、部分動画像データに対して行う編集処理の方法を決定する処理を行う。編集方法決定部11dは、シーン情報にて特定された一又は複数の特徴に基づいて編集方法決定テーブル12cを参照し、特定された特徴に対応付けられた編集方法を取得することによって、編集方法を決定する。
The editing
なお本実施の形態において編集方法決定部11dは、編集方法決定テーブル12cを用いて編集方法を決定する構成とするが、これに限るものではなく、例えば動画像データやシーン情報等の入力に対して適した編集方法を出力するよう予め機械学習がなされた学習モデルを用いて編集方法を決定してもよい。編集方法の決定に学習モデルを用いる構成の場合、例えば編集後の動画像データを視聴したユーザから編集方法に対する評価を受け付けて、受け付けた評価に基づいて学習モデルの再学習処理を行うことができる。
In the present embodiment, the editing
編集処理部11eは、編集方法決定部11dが決定した編集方法に従って、部分動画像データに対する編集処理を行う。本実施の形態において編集処理部11eは、例えば装飾画像、キャラクタ画像又はエフェクト画像等の種々の画像を動画像に重畳する編集処理を行う。また例えば編集処理部11eは、動画像に含まれるシーンの時間帯を変更する(昼間から夜間へ、夜間から昼間へ、又は、昼間から夕方へ等)編集処理を行う。また例えば編集処理部11eは、動画像のスタイルを変更する(通常スタイルの動画から絵画風又はアニメ風等へ)編集処理を行う。また例えば編集処理部11eは、動画像データに対して効果音又は背景音を追加する編集処理を行う。また例えば編集処理部11eは、動画像に映された人が話す音声について声色又は声音等を変更する処理を行う。また例えば編集処理部11eは、動画像データの再生速度を変更する(スロー再生、コマ送り再生、倍速再生又は早送り再生等)編集処理を行う。上記の編集処理は一例であって、編集処理部11eはこれら以外の様々な編集処理を行う構成であってよい。
The
結合処理部11fは、部分動画像抽出部11bにて抽出されて編集処理部11eにて編集処理がなされた複数の部分動画像データを結合することによって、ダイジェスト動画像データを生成する処理を行う。
The combining
編集済動画像送信部11gは、結合処理部11fが部分動画像データを結合して生成したダイジェスト動画像データを、編集処理の依頼元である端末装置3へ送信する処理を行う。
The edited moving
図4は、本実施の形態に係る端末装置3の構成を示すブロック図である。本実施の形態に係る端末装置3は、処理部31、記憶部(ストレージ)32、通信部(トランシーバ)33、表示部(ディスプレイ)34、操作部35及びカメラ36等を備えて構成されている。端末装置3は、カメラ36による動画像の撮影機能を搭載した例えばスマートフォン、タブレット型端末装置又はパーソナルコンピュータ等の情報処理装置を用いて構成され得る。また端末装置3は、動画像を撮影するビデオカメラ等の撮影装置であってもよい。
FIG. 4 is a block diagram showing the configuration of the
処理部31は、CPU又はMPU等の演算処理装置、ROM及び等を用いて構成されている。処理部31は、記憶部32に記憶されたプログラム32aを読み出して実行することにより、カメラ36による動画像の撮影処理及び撮影した動画像の表示部34への表示処理等の種々の処理を行う。
The
記憶部32は、例えばフラッシュメモリ等の不揮発性のメモリ素子を用いて構成されている。記憶部32は、処理部31が実行する各種のプログラム、及び、処理部31の処理に必要な各種のデータを記憶する。本実施の形態において記憶部32は、処理部31が実行するプログラム32aを記憶している。本実施の形態においてプログラム32aは遠隔のサーバ装置等により配信され、これを端末装置3が通信にて取得し、記憶部32に記憶する。ただしプログラム32aは、例えば端末装置3の製造段階において記憶部32に書き込まれてもよい。例えばプログラム32aは、メモリカード又は光ディスク等の記録媒体98に記録されたプログラム32aを端末装置3が読み出して記憶部32に記憶してもよい。例えばプログラム32aは、記録媒体98に記録されたものを書込装置が読み出して端末装置3の記憶部32に書き込んでもよい。プログラム32aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体98に記録された態様で提供されてもよい。
The
通信部33は、携帯電話通信網及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部33は、ネットワークNを介して、サーバ装置1との間で通信を行う。通信部33は、処理部31から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部31へ与える。
The
表示部34は、液晶ディスプレイ等を用いて構成されており、処理部31の処理に基づいて種々の画像及び文字等を表示する。
The
操作部35は、ユーザの操作を受け付け、受け付けた操作を処理部31へ通知する。例えば操作部35は、機械式のボタン又は表示部34の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付ける。また例えば操作部35は、マウス及びキーボード等の入力デバイスであってよく、これらの入力デバイスは端末装置3に対して取り外すことが可能な構成であってもよい。
The
カメラ36は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子を用いて構成されている。カメラ36は、例えば端末装置3の筐体の適所に配置されている。カメラ36は、撮像素子により撮影した画像を処理部11へ与える。本実施の形態においてカメラ36は、動画像を撮影することができる。なお本実施の形態においては、端末装置3がカメラ36を備え、カメラ36にて撮影された動画像データに対して編集処理が行われるものとするが、これに限るものではない。例えばデジタルビデオカメラ等の他の装置で撮影された動画像データを端末装置3が取得したものが編集処理の対象とされてもよく、インターネット等において公開されている動画像データを端末装置3が取得したものが編集対象とされてもよい。
The
また本実施の形態に係る端末装置3は、記憶部32に記憶されたプログラム32aを処理部31が読み出して実行することにより、撮影処理部31a、表示処理部31b、編集指示受付部31c、動画像送信部31d及び動画像受信部31e等がソフトウェア的な機能部として処理部31に実現される。なおプログラム32aは、本実施の形態に係る情報処理システムに専用のプログラムであってもよく、インターネットブラウザ又はウェブブラウザ等の汎用のプログラムであってもよい。プログラム32aは、例えば動画像を他のユーザと共有するSNS(Social Networking Service)のアプリケーションプログラムであってよい。
Further, in the
撮影処理部31aは、カメラ36による動画像の撮影に係る処理を行う。撮影処理部31aは、例えばカメラ36のシャッタースピード、フレームレート、ISO感度、露出及び絞り値等の制御を行う。また撮影処理部31aは、カメラ36が撮影した動画像のデータを取得し、例えばMP4又はAVI(Audio Video Interleave)等の適宜のファイル形式の動画像データとして記憶部32に記憶する。
The
表示処理部31bは、記憶部32に記憶された動画像データを再生して表示部34に表示する処理を行う。本実施の形態において表示処理部31bが表示する動画像データには、カメラ36によって撮影された動画像データと、サーバ装置1によって編集処理がなされた動画像データとが含まれる。また表示処理部31bは、ユーザが本システムを利用するためのメニュー画面、ホーム画面又は設定画面等の表示を行う。これらの画面表示に必要なデータは、プログラム32aと共に記憶部32に記憶されている。
The display processing unit 31b performs a process of reproducing the moving image data stored in the
編集指示受付部31cは、操作部35に対してなされた操作に基づいて、動画像データに対してサーバ装置1による自動的な編集処理を実施する指示をユーザから受け付ける処理を行う。例えば編集指示受付部31cは、表示処理部31bが動画像データを再生して表示する画面に設けられたボタン又はアイコン等に対するタッチ操作、タップ操作又はクリック操作等に応じて、動画像データに対する編集処理の実施指示を受け付ける。また例えば、表示処理部31bが撮影済みの動画像データのファイル名又はサムネイル画像等の一覧表示を行い、編集指示受付部31cは、一覧表示された動画像データから編集処理の対象とする一又は複数の動画像データの選択操作を受け付けることで、選択された動画像データに対する編集処理の実施指示を受け付ける。なお編集指示受付部31cによる編集指示の受け付け方法は一例であって、これに限るものではない。
The editing
動画像送信部31dは、編集指示受付部31cが編集指示を受け付けた場合に、編集対象の動画像データを記憶部32から読み出し、読み出した動画像データを通信部33にてサーバ装置1へ送信する処理を行う。動画像送信部31dは、編集処理の実施を依頼するメッセージ等と共に、動画像データをサーバ装置1へ送信する。またこのときに動画像送信部31dは、動画像データの自動編集に対する条件又は設定等の情報をサーバ装置1へ送信してもよい。
When the editing
動画像受信部31eは、サーバ装置1が編集処理を行った編集済の動画像データを通信部33にて受信する処理を行う。動画像受信部31eは、受信した動画像データを記憶部32に記憶する。なお本実施の形態においては、サーバ装置1は編集した動画像データを端末装置3へ送信し、端末装置3は編集済の動画像データを記憶部32に記憶する構成とするが、これに限るものではない。例えば、編集済みの動画像データをサーバ装置1が記憶しておき、端末装置3は編集済みの動画像データを再生して表示する場合に、その都度、サーバ装置1から編集済の動画像データを取得して再生する、いわゆるストリーミング再生の構成が採用されてもよい。
The moving
<編集指示受付処理>
図5は、端末装置3が表示する動画像再生画面の一例を示す模式図である。本実施の形態に係る端末装置3は、動画像再生画面を表示部34に表示して、動画像データの再生及び表示を行う。例えば端末装置3は、動画像再生画面の最上部に、再生する動画像のタイトルを示す「タイトル:小学校の運動会」等の文字列を表示する。動画像のタイトルは、例えばユーザが予め付したものであってもよく、また例えば動画像データに付されたファイル名等であってもよい。端末装置3は、タイトルの文字列の下方に設けられた矩形の再生領域に、動画像を再生して表示する。再生領域の下部には、再生、停止及び早送り等を制御するためのアイコン等が並べて設けられており、端末装置3はこれらのアイコンに対するユーザの操作に応じて動画像の再生を制御する。
<Editing instruction reception process>
FIG. 5 is a schematic diagram showing an example of a moving image reproduction screen displayed by the
また操作用のアイコンの下方には動画像データに関する情報を表示する情報表示領域が設けられており、端末装置3は、例えば動画像データが撮影された日時又は場所等の情報をこの領域に表示する。本実施の形態において、動画像再生画面の情報表示領域の下部には、「自動編集」のラベルが付されたアイコン101と、「動画共有」のラベルが付されたアイコン102とが並べて設けられている。アイコン101は、動画像再生画面に表示されている動画像に対するユーザからの自動編集の指示を受け付けるためのものである。アイコン101に対するタッチ操作、タップ操作又はクリック操作等を受け付けた場合、端末装置3は、動画像データをサーバ装置1へ送信して、この動画像データの自動編集を依頼する。アイコン102は、動画像データを例えば動画像共有サイト又はSNS等へ投稿し、一又は複数の他ユーザにこの動画像データを公開するための操作を受け付ける。動画像データの共有については、既存の技術であるため、詳細な説明は省略する。
Further, an information display area for displaying information related to the moving image data is provided below the operation icon, and the
端末装置3からの編集処理の依頼に応じてサーバ装置1は、端末装置3から送信される動画像データを取得して、この動画像データに対する編集処理を自動的に行う。本実施の形態においてサーバ装置1は、元の動画像データから適宜のシーンを抽出し、抽出した各シーンに適宜の画像処理及び音声処理等を施して結合することによりダイジェスト動画像を作成する編集処理を自動的に行う。サーバ装置1は、編集済みの動画像データを、依頼元の端末装置3へ送信する。
In response to the request for the editing process from the
アイコン101に対する操作に応じて動画像データをサーバ装置1へ送信した端末装置3は、例えば「しばらくお待ちください」等のメッセージを動画像再生画面に重畳して表示し、サーバ装置1から送信される編集済みの動画像データの受信を待機する。編集済みの動画像データを受信した場合、端末装置3は、編集前の動画像データに代えて、サーバ装置1から受信した編集済みの動画像データを再生領域にて再生して表示する。
The
また編集済みの動画像データを視聴したユーザは、例えば動画像データに対して行われた編集処理の内容に不満等を有する場合、自動編集のアイコン101に対する操作を再び行うことで、動画像データに対する再編集処理を依頼することが可能であってもよい。サーバ装置1は、端末装置3からの再編集の依頼に応じて、動画像データに対して以前とは異なる内容の編集処理を施して、端末装置3へ送信することができる。
Further, when the user who has viewed the edited moving image data is dissatisfied with the content of the editing process performed on the moving image data, for example, the moving image data can be operated by performing the operation for the
図6は、本実施の形態に係る端末装置3が行う処理の手順を示すフローチャートである。本実施の形態に係る端末装置3の処理部31の表示処理部31bは、例えば記憶部32に記憶された一の動画像データの選択操作等を受け付けた場合に、選択された動画像データを再生すべく、図5に示した構成の動画像再生画面を表示部34に表示する(ステップS1)。表示処理部31bは、例えば動画像再生画面に設けられた再生アイコン等に対する操作を受け付けたか否かに基づいて、再生操作がなされたか否かを判定する(ステップS2)。再生操作がなされた場合(S2:YES)、表示処理部31bは、記憶部32から動画像データを読み出し、読み出した動画像データを再生して表示部34に表示する再生処理を行い(ステップS3)、処理を終了する。
FIG. 6 is a flowchart showing a procedure of processing performed by the
再生操作がなされていない場合(S2:NO)、処理部31の編集指示受付部31cは、動画像再生画面に設けられた自動編集のアイコン101に対する操作がなされたか否かに基づいて、ユーザから動画像データの自動編集の指示が与えられたか否かを判定する(ステップS4)。自動編集の指示が与えられていない場合(S4:NO)、処理部31は、ステップS1へ処理を戻す。
When the playback operation is not performed (S2: NO), the editing
自動編集の指示が与えられた場合(S4:YES)、処理部31の動画像送信部31dは、編集対象の動画像データを記憶部32から読み出して、読み出した動画像データをサーバ装置1へ送信する(ステップS5)。その後、処理部31の動画像受信部31eは、サーバ装置1が送信する編集済みの動画像データを受信したか否かを判定する(ステップS6)。編集済みの動画像データを受信していない場合(S6:NO)、動画像受信部31eは、サーバ装置1から動画像データを受信するまで待機する。サーバ装置1から編集済みの動画像データを動画像受信部31eが受信した場合(S6:YES)、表示処理部31bは、受信した編集済みの動画像データを再生して表示部34に表示する再生処理を行い(ステップS7)、処理を終了する。
When an instruction for automatic editing is given (S4: YES), the moving
<編集処理>
図7は、サーバ装置1が行う動画像データの編集処理を説明するための模式図である。本実施の形態に係るサーバ装置1は、端末装置3から編集依頼と共に送信される動画像データに対して編集処理を行い、ダイジェスト動画像データを生成する処理を行う。本図においては、端末装置3からサーバ装置1が取得した動画像データを全体動画像として最上部に図示している。
<Editing process>
FIG. 7 is a schematic diagram for explaining the editing process of moving image data performed by the
まず本実施の形態に係るサーバ装置1は、この全体動画像から一又は複数の部分動画像を抽出する処理を行う。なお、全体動画像から部分動画像を抽出してダイジェスト動画像を生成する技術は既存のものであるため、サーバ装置1が行う部分動画像の抽出方法の詳細な説明は省略する。サーバ装置1は、どのような方法で全体動画像から部分動画像を抽出してもよい。図示の例では、サーバ装置1は、全体動画像から3つの部分動画像を抽出している。
First, the
例えばサーバ装置1は、全体動画像の中で笑顔の人が映されている部分、笑顔の人がより多く映されている部分を抽出することができる。また例えばサーバ装置1は、特定の人又は物が映されている部分を抽出することができる。また例えばサーバ装置1は、全体動画像の中に映されている人又は物等の動作又は変化等が大きい部分を抽出することができ、動作又は変化等が小さい部分を抽出してもよい。また例えばサーバ装置1は、動画像に映されている人の会話の音量が閾値を超えた部分を抽出することができる。上記の部分動画像の抽出方法は一例であって、これに限るものではない。
For example, the
次いでサーバ装置1は、抽出した部分動画像毎に、映されているシーンの特徴を特定する処理を行う。本実施の形態においてサーバ装置1は、記憶部32に記憶した特徴特定モデル12bに部分動画像のデータを入力し、この部分動画像データに含まれるシーンの特徴を特定した出力情報を特徴特定モデル12bから取得する。図示の例では、部分動画像に対して天候、撮影場所、時間帯、自動車の有無及び状態、人物1(子供且つ男)の有無及び状態、並びに、人物2(大人且つ女)の有無及び状態等の特徴が特定されている。また自動車に関しては走行しているか又は停車しているかが特徴として特定され、人物1に関しては笑顔であるか否かが特徴として特定され、人物2に関しては話しているか否かが特徴として特定されている。なお図示の特徴は一例であって、これに限るものではなく、動画像データからはこれら以外の種々の特徴が特定されてよい。例えば動画像データに自転車、建物、木、植物又は動物等が映されているか否かを特徴として特定としてもよく、映っている人又は物の属性として表情、年齢、性別又は動作等の種類を特徴として特定してもよい。
Next, the
特徴特定モデル12bには、例えば動画像データを構成する複数のフレームが時系列で入力される。特徴特定モデル12bは、時系列で入力される各フレームについて上記の特徴を特定する。特徴特定モデル12bが出力する情報に基づいてサーバ装置1は、動画像データに対して特定された時系列の特徴の情報を取得することができる。サーバ装置1は、動画像データを構成するフレーム毎に特徴を特定してもよく、所定数のフレームの集まり毎に特徴を特定してもよく、動画像データの再生時間において1秒等の所定時間毎に特徴を特定してもよい。いずれにしても本実施の形態に係るサーバ装置1が特定する特徴は、時間の経過に従って変化し得る時系列の特徴である。
In the feature-
サーバ装置1は、特徴特定モデル12bとして、例えば動画像データの入力に対して、この動画像データに映されているシーンの天候が晴、曇、雨及び雪等のいずれであるかを分類する学習モデルを用いることができる。この特徴特定モデル12bは、例えば動画像データと天候のラベルとが対応付けられた教師データを用いて予め機械学習がなされることで生成される。またサーバ装置1は、特徴特定モデル12bとして、例えば動画像データの入力に対して、この動画像データに映されているシーンの撮影場所が屋内又は屋外のいずれであるかを分類する学習モデルを用いることができる。またサーバ装置1は、例えば動画像データの入力に対して、この動画像データに映されているシーンの時間帯が朝、昼間、夕方又は夜間のいずれであるかを分類する学習モデルを用いることができる。
As the
またサーバ装置1は、特徴特定モデル12bとして、例えば動画像データの入力に対して、この動画像データに自動車が映されているか否か、写されている自動車の位置、及び、写されている自動車の属性として走行しているか又は停車しているか等を特定する学習モデルを用いることができる。図示の例では、部分動画像1において停車している自動車が映されている期間が特定されている。サーバ装置1は、特徴特定モデル12bから時系列の特徴を取得することによって、部分動画像1に自動車が映されているか否かのみでなく、部分動画像1に自動車が映されている期間を特定することができる。
Further, the
同様にサーバ装置1は、特徴特定モデル12bとして、例えば動画像データの入力に対して、この動画像データに人が映されているか否か、写されている人の位置、並びに、写されている人の属性として表情、年齢及び性別等を特定する学習モデルを用いることができる。図示の例では、部分動画像1において子供の男性が映されている期間が特定され、更にこの子供の表情が笑顔である期間が特定されている。また図示の例では、部分動画像1において大人の女性が映されている期間が特定され、更にこの女性が話している期間が特定されている。
Similarly, the
サーバ装置1は、上記のような複数の特徴を動画像データから特定する複数の学習モデルを、記憶部32に特徴特定モデル12bとして記憶している。サーバ装置1は、これら複数の学習モデルに対してそれぞれ動画像データを入力し、各学習モデルが出力する情報を取得することによって、動画像データから複数の特徴を特定することができる。ただし特徴特定モデル12bは、これら複数の特徴を出力する1つの学習モデルとして生成されてもよい。
The
各部分動画像について時系列の特徴を特定したサーバ装置1は、特定した特徴に基づいて記憶部32の編集方法決定テーブル12cを参照することによって、各部分動画像に対して行う編集処理を決定する。サーバ装置1は、特定された部分動画像についての時系列の特徴の組み合わせに合致する組み合わせを、編集方法決定テーブル12cにシーン情報として定められた複数の組み合わせの中から検索する。部分動画像から特定した特徴の組み合わせに合致する組み合わせが編集方法決定テーブル12cに存在する場合、サーバ装置1は、この組み合わせに対応付けられた編集方法を編集方法決定テーブル12cから取得する。
The
例えば、図7に示す例では、天候が晴、撮影場所が屋外、時間帯が昼間、且つ、子供の男性が笑顔という特徴の組み合わせが特定されるタイミングが存在している。これらの特徴の組み合わせは、図3に示す編集方法決定テーブル12cの1番目に存在しており、サーバ装置1は、対応する編集方法として「笑いエフェクト画像追加」及び「明るいBGM」の2種を編集方法決定テーブル12cから取得することができる。
For example, in the example shown in FIG. 7, there is a timing in which the combination of the characteristics that the weather is fine, the shooting location is outdoors, the time zone is daytime, and the male child smiles is specified. The combination of these features exists first in the editing method determination table 12c shown in FIG. 3, and the
サーバ装置1は、部分動画像に対して時系列に特定した複数の特徴の組み合わせに対して、時系列に編集方法を編集方法決定テーブル12cから取得して、時系列に編集方法を決定する。例えば、部分動画像のフレーム毎に特徴が特定されている場合、サーバ装置1は、フレーム毎に編集方法を決定することができる。ただしサーバ装置1は、フレーム毎に特徴が特定されている場合であっても、例えば10フレーム毎又は100フレーム毎等の所定フレーム毎に編集方法を決定してもよく、また例えば動画像の再生時間の1秒毎又は10秒毎等の所定時間毎に編集方法を決定してもよい。また例えばサーバ装置1は、部分動画像において最も長い時間に亘って現れる特徴の組み合わせを1つ又は複数選択して代表の特徴とし、選択した代表の特徴に基づいてこの部分動画像に対する編集方法を決定してもよい。
The
全体動画像から抽出した全ての部分動画像について編集方法を決定したサーバ装置1は、決定した編集方法による部分動画像の編集処理を行う。本実施の形態においてサーバ装置1は、例えば以下の編集処理を行うことができる。ただし以下に列挙する編集処理は一例であって、サーバ装置1はこれら以外の様々な編集処理を行ってよい。
・装飾画像、キャラクタ画像又はエフェクト画像等の画像を重畳する編集処理
・動画像に含まれるシーンの時間帯を変更する編集処理
・動画像のスタイルを変更する編集処理
・効果音又は背景音を追加する編集処理
・音声について声色又は声音等を変更する編集処理
・再生速度を変更する編集処理
The
-Editing process to superimpose images such as decorative images, character images or effect images-Editing process to change the time zone of the scene included in the moving image-Editing process to change the style of the moving image-Add sound effect or background sound Editing process to change the voice color or voice sound, etc. Editing process to change the playback speed
図8は、画像を重畳する編集処理の一例を説明するための模式図である。画像を重畳する編集処理において、サーバ装置1は、例えば動画像に映された人に宇宙服の装飾画像を重畳することで、登場人物を宇宙飛行士に変身させることができる。また例えばサーバ装置1は、動画像に映された人の顔に眼鏡又はサングラスの装飾画像を重畳することで、登場人物を装飾することができる。また例えばサーバ装置1は、動画像に映された人に衣服の装飾画像を重畳することで、登場人物の服装を変更することができる。また例えばサーバ装置1は、動画像に映された赤ん坊の近くにひよこのキャラクタ画像を重畳することができる。また例えばサーバ装置1は、動画像に映されたサッカー選手の足元に存在するサッカーボールに対してエフェクト画像を重畳することができる。
FIG. 8 is a schematic diagram for explaining an example of an editing process for superimposing images. In the editing process of superimposing images, the
サーバ装置1が動画像に重畳したこれらの画像は、動画像の再生に伴ってアニメーションにより動いてよい。サーバ装置1が重畳するこれらの画像のデータは、記憶部12に予め記憶されている。予め記憶された多数の画像のいずれを重畳するかは、例えば編集方法決定テーブル12cに定められていてもよく、また例えば特定された特定の特徴に対して予め紐付けられた画像を重畳してもよく、また例えば乱数に基づいて重畳する画像を選択してもよく、これら以外の種々の方法で重畳する画像を決定してよい。サーバ装置1は、重畳する画像を、元の動画像の適宜の位置に重畳する画像処理を行う。このときにサーバ装置1は、例えば動画像中での人又は物等の位置の検出、人の顔の検出、人の姿勢の検出、人又は物の移動方向又は移動速度の検出等を行って、重畳する画像の位置及び向き等を決定することができる。
These images superimposed on the moving image by the
また、サーバ装置1は、例えば元の動画像の色相、彩度、明度等を変更する画像処理を施すことによって、動画像に含まれるシーンの時間帯を変更することができる。これによりサーバ装置1は、例えば昼間から夕方又は夜間へ、夜間から昼間又は夕方へ、夕方から昼間又は夜間へ等の時間帯を変更する画像処理を行うことができる。
Further, the
また、サーバ装置1は、動画像のスタイルを変更する編集処理を、いわゆる画風変換の学習モデルを利用して行うことができる。既存の技術であるため詳細な説明は省略するが、例えば画風変換の学習モデルは、入力画像に対してスタイル(画風)を変換した変換画像を出力するモデルであり、入力画像及びスタイル画像に近い変換画像を出力するように予め機械学習がなされる。学習モデルは変換するスタイル毎に生成され、サーバ装置1は、複数の画風変換の学習モデルを記憶部12に記憶して利用することができる。変換可能な複数のスタイルのうち、いずれのスタイルへ変換するかは、例えば編集方法決定テーブル12cに定められていてもよく、また例えば特定された特定の特徴に対して予め紐付けられたスタイルを採用してもよく、また例えば乱数に基づいてスタイルを決定してもよく、これら以外の種々の方法でスタイルを決定してよい。これらによりサーバ装置1は、例えば撮影された通常スタイルの動画像を、絵画風又はアニメ風等のスタイルに変更することができる。
Further, the
また、サーバ装置1は、動画像に効果音又は背景音を追加する編集処理を行うことができ、追加する効果音又は背景音のデータは記憶部12に予め記憶されている。サーバ装置1は、例えば編集方法決定テーブル12cにて定められた効果音又は背景音に対応するデータを記憶部12から読み出して、この効果音又は背景音を動画像データに追加する処理を行う。
Further, the
また、サーバ装置1は、動画像に映された人又は動物等が発した音声の声色又は声音等を変更する、例えば男性の声を女性の声に変換する又は人の声を特定のアニメーションキャラクターの声に変換する等の編集処理を行うことができる。サーバ装置1は、例えば動画像から人が発した音声を抽出し、抽出した音声の周波数変換等の処理を行うことによって、声色又は声音を変更する。
Further, the
また、サーバ装置1は、動画像データの再生速度を変更する、例えばスロー再生、コマ送り再生、倍速再生又は早送り再生等の速度変更の処理を行う。これら複数の速度変更の方法うち、いずれの方法で速度変更を行うかは、例えば編集方法決定テーブル12cに定められていてもよく、また例えば特定された特定の特徴に対して予め紐付けられた方法を採用してもよく、また例えば乱数に基づいて速度変更の方法を決定してもよく、これら以外の種々の方法で速度変更の方法を決定してよい
Further, the
なお本実施の形態においてサーバ装置1は、画像の重畳、時間帯の変更、効果音又は背景音の追加、声色又は声音の変更、再生速度の変更等の編集処理について、予め定められた方法(ルール)に従って画像処理又は音声処理等を行うことにより、動画像を編集するものとするが、これに限るものではない。サーバ装置1は、これらの編集処理についても、スタイル変更の編集処理と同様に、学習済の学習モデルを用いて編集処理を行ってよい。
In the present embodiment, the
全ての部分動画像に対して編集処理を行ったサーバ装置1は、複数の部分動画像を結合して1つの動画像データを生成する。これにより生成された動画像データが、編集済みのダイジェスト動画像データとして、サーバ装置1から編集依頼元の端末装置3へ送信される。
The
なおサーバ装置1は、編集済みの動画像データを端末装置3へ送信した後に、この端末装置3から再編集の依頼を受け付けてもよい。再編集の依頼を受け付けたサーバ装置1は、例えば未編集の全体動画像のデータから編集処理を再度行ってもよく、編集済みのダイジェスト動画像データに対して編集内容の変更、追加又は削除等を行ってもよい。サーバ装置1は、例えば編集方法決定テーブル12cにて決定される編集方法をランダムに別の編集方法へ変更してもよい。また例えば、編集方法決定テーブル12cに2回目の編集方法、3回目の編集方法…のように複数の編集方法を記憶しておき、サーバ装置1が編集方法決定テーブル12cにて定められた複数の編集方法を順番に実施してもよい。また例えばサーバ装置1は、前回の編集方法と再編集で行う編集方法とを対応付けたテーブルを予め記憶しておき、このテーブルを用いて再編集の編集方法を決定してもよい。サーバ装置1は、再編集の編集方法をどのように決定してもよい。
The
図9は、本実施の形態においてサーバ装置1が行う処理の手順を示すフローチャートである。本実施の形態に係るサーバ装置1の処理部11は、端末装置3からの依頼に応じて本処理を開始する。まず処理部11の動画像取得部11aは、端末装置3から編集処理を実施する依頼と共に送信される動画像データを、編集処理の対象とする全体動画像のデータとして取得する(ステップS11)。動画像取得部11aが取得した全体動画像のデータは、例えば記憶部12に一時的に記憶される。
FIG. 9 is a flowchart showing a procedure of processing performed by the
次いで処理部11の部分動画像抽出部11bは、ステップS11にて取得した全体動画像のデータから一又は複数の部分動画像のデータを抽出する(ステップS12)。処理部11の特徴特定部11cは、記憶部12に記憶された特徴特定モデル12bを用いて、ステップS12にて抽出された各部分動画像のデータについて時系列の特徴を特定する処理を行う(ステップS13)。処理部11の編集方法決定部11dは、ステップS13にて特定された各部分動画像の特徴に基づいて、記憶部12に記憶された編集方法決定テーブル12cを参照し、編集方法決定テーブル12cに定められた編集方法を取得することにより、各部分動画像に対して行う編集方法を決定する(ステップS14)。
Next, the partial moving
次いで処理部11の編集処理部11eは、ステップS14にて決定された編集方法に従って、各部分動画像のデータを編集する(ステップS15)。処理部11の結合処理部11fは、ステップS15にて編集処理が行われた全ての部分動画像のデータを時系列順に結合する(ステップS16)。処理部11の編集済動画像送信部11gは、ステップS16にて部分動画像を結合することにより得られた編集済みの動画像データを、編集処理の依頼元の端末装置3へ送信し(ステップS17)、処理を終了する。
Next, the
<まとめ>
以上の構成の本実施の形態に係るサーバ装置1は、端末装置3から編集処理の対象となる動画像データを取得し、取得した動画像データの特徴を特定し、特定した特徴に応じて動画像データの編集処理を行う。これにより、サーバ装置1は動画像データの特徴に適した編集処理を自動的に行うことができ、ユーザは動画像データの編集処理を自ら行う必要がないため、ユーザにとって動画像データの編集を容易化することが期待できる。
<Summary>
The
また本実施の形態に係るサーバ装置1は、動画像データの中の同一時点で複数の特徴を特定し、特定した複数の特徴の組み合わせに応じて編集方法を決定して動画像データを編集する。これにより、サーバ装置1が多様な編集処理を動画像データに対して行うことが期待できる。
Further, the
また本実施の形態に係るサーバ装置1は、装飾画像等を重畳する編集処理、シーンの時間帯を変更する編集処理、スタイルを変更する編集処理、効果音又は背景音を追加する編集処理、音声を変更する編集処理、及び、再生速度を変更する編集処理のうちの少なくとも1つの編集処理を行う。これにより、サーバ装置1は娯楽性又は趣向性の高い動画像データを作成することが期待できる。なお、サーバ装置1が行う編集処理は上記のものに限定されず、サーバ装置1はこれら以外の様々な編集処理を行ってよい。
Further, the
また本実施の形態に係るサーバ装置1は、端末装置3から取得した動画像データの全体から複数の部分動画像のデータを抽出し、抽出した各部分動画像に対して編集処理を行い、編集した複数の部分動画像データを結合することによって、ダイジェスト動画像データを生成する。これによりサーバ装置1は、再生時間の長い動画像データに基づいて、再生時間を短縮し且つ編集処理を施したダイジェスト動画像データを生成することができる。なお本実施の形態においてサーバ装置1は、全体動画像から部分動画像を抽出して編集処理を行ったが、これに限るものではなく、部分動画像を抽出せず、全体動画像に対して編集処理を行ってもよい。これは、全体動画像の再生時間が短い場合等に好適である。換言すれば、サーバ装置1は、全体動画像から部分動画像を抽出する際に、全体動画像そのものを1つの部分動画像として抽出してもよい。
Further, the
また本実施の形態に係る端末装置3は、動画像データに対する編集処理の実施指示を受け付けるアイコン101を、動画像再生画面に動画像と共に表示し、アイコン101に対する操作を受け付けることで編集処理の実施指示を受け付ける。実施指示を受け付けた場合に端末装置3は編集処理の依頼をサーバ装置1へ与え、この依頼に応じてサーバ装置1が動画像データの編集処理を行い、編集済みの動画像データを端末装置3へ送信する。端末装置3は、再生画面において、編集前の動画像データに代えて、サーバ装置1から受信した編集済みの動画像データを再生して表示する。これによりユーザは、動画像データの編集処理の実施指示を容易に行うことができると共に、編集処理がなされた動画像データを容易に視聴することが期待できる。
Further, the
なお、本実施の形態において情報処理システムは、端末装置3からサーバ装置1が動画像データを取得して編集処理を行い、編集済みの動画像データをサーバ装置1から端末装置3へ送信する構成としたが、これに限るものではなく、例えば端末装置3にて編集処理等を行う構成としてもよく、この場合には情報処理システムにサーバ装置1が含まれていなくてもよい。本実施の形態において説明した情報処理は、複数の装置の協働により行われてもよく、単体の装置にて行われてもよい。
In the present embodiment, the information processing system has a configuration in which the
また本実施の形態においてサーバ装置1は、1つの動画像データに対して編集処理を行っているが、これに限るものではない。例えば端末装置3から複数の動画像データをサーバ装置1が取得し、複数の全体動画像からそれぞれ一又は複数の部分動画像を抽出して編集処理を行い、編集済みの複数の部分動画像を結合して1つのダイジェスト動画像を生成してもよい。
Further, in the present embodiment, the
また本実施の形態においてサーバ装置1は、動画像データの入力に対してこの動画像データの特徴を出力する学習モデルを用いたが、例えば以下のような学習モデルを用いて編集処理を行ってもよい。例えば、動画像データの入力に対して、本実施の形態においてサーバ装置1の処理として説明した編集処理を施すように機械学習がなされた学習モデルを生成してもよい。サーバ装置1は、端末装置3から取得した動画像データをこの学習モデルへ入力し、学習モデルが出力する編集済みの動画像データを取得して端末装置3へ送信することができる。
Further, in the present embodiment, the
また例えばサーバ装置1は、動画像データやシーン情報等の入力に対して又は特徴特定モデル12bにより特定した特徴の入力に対して、編集方法を出力する学習モデルを用いてもよい。サーバ装置1が編集済みの動画像データを端末装置3へ送信し、端末装置3が編集済みの動画像データを再生して表示した後、端末装置3は、この編集内容に対するユーザの評価を取得してもよい。例えば図5に示した動画像再生画面に設けられた動画共有のアイコン102に対する操作がなされた場合には編集内容に対して高評価がなされたものとし、自動編集のアイコン101に対する2回目以降の操作がなされた場合(即ち再編集の依頼がなされた場合)には編集内容に対して低評価がなされたものとして端末装置3が編集内容に対する評価を取得して蓄積することができる。端末装置3が取得した評価はサーバ装置1へフィードバックされ、編集方法を出力する学習モデルの再学習に用いることができる。ユーザの評価に基づいて再学習された学習モデルを用いることによって、よりユーザの好みを反映した編集処理を実現できる。
Further, for example, the
また本実施の形態においては端末装置3にて撮影した動画像データを編集処理の対象としたが、これに限るものではない。端末装置3とは異なるビデオカメラ等の装置にて撮影した動画像データをサーバ装置1が取得して編集処理を行い、編集済みの動画像データを端末装置3へ送信してもよい。またインターネット等にて公開されている動画像データをユーザが端末装置3にて取得し、取得した動画像データに対して編集処理を行ってもよい。またゲーム機にてプレイしたゲームの様子を動画像データとして保存し、この動画像データに対して編集処理を行ってもよい。この場合に編集処理はサーバ装置1が行ってもよく、ゲーム機が行ってもよい。
Further, in the present embodiment, the moving image data captured by the
<変形例1>
図10は、変形例1に係る端末装置3が表示する編集設定画面の一例を示す模式図である。変形例1に係る情報処理システムでは、サーバ装置1が行う種々の編集処理に対して、ユーザが各編集処理の実施の可否を設定することが可能である。端末装置3は、例えば図示しないメニュー画面等において編集処理に関する設定の項目が選択された場合に、図示の編集設定画面を表示部34に表示する。
<Modification example 1>
FIG. 10 is a schematic view showing an example of an edit setting screen displayed by the
編集設定画面は、最上部に「編集設定」のタイトル文字列が表示されて、その下方に実施可能な編集処理の方法がチェックボックスと共に一覧表示される。端末装置3は、各チェックボックスに対するユーザの操作に応じてチェックの有無をトグル的に更新して表示する。図示の例では、「装飾画像の追加」、「キャラクタ画像の追加」、「エフェクト画像の追加」、「時間帯変更」、「スタイル変更」、「効果音追加」、「背景音追加」、「音声変更」及び「再生速度変更」の9項目が設定可能な編集方法として示されている。これらのうち、「時間帯変更」及び「再生速度変更」の2項目がチェックボックスにチェックされておらず、ユーザが編集方法から除外したものとみなされる。
On the edit setting screen, the title character string of "edit setting" is displayed at the top, and the edit processing methods that can be executed are listed together with a check box below it. The
編集設定画面の最下部には「OK」のラベルが付されたボタンが設けられている。端末装置3は、OKのボタンに対するタッチ操作、タップ操作又はクリック操作等を受け付けた場合に、編集設定画面に表示された各項目のチェックボックスのチェック状態を取得し、各編集方法の採用の可否を決定する。端末装置3は、サーバ装置1に対して動画像データの編集を依頼する際に、各編集方法の可否を示した設定情報をサーバ装置1へ送信する。
A button labeled "OK" is provided at the bottom of the edit setting screen. When the
サーバ装置1は、端末装置3から送信される設定情報を受信し、受信した設定情報に基づいて各編集方法の適用の可否を判断する。例えばサーバ装置1は、動画像データから特定して特徴の組み合わせに基づいて編集方法決定テーブル12cを参照することで編集方法を決定するが、編集方法決定テーブル12cに定められた編集方法が適用不可に設定されている場合、この編集方法を用いた編集処理を行わない。この場合にサーバ装置1は、代わりの編集方法で編集処理を行ってもよく、編集処理を行わなくてもよい。
The
<変形例2>
図11は、変形例2に係る情報処理システムの構成を説明するための模式図である。変形例2に係る情報処理システムは、例えばテーマパーク、遊園地、動物園、イベント会場又は結婚式場等の施設に設置された一又は複数のカメラ5が撮影した動画像データをサーバ装置1が取得する。サーバ装置1は、カメラ5から取得した複数の動画像データから部分動画像を抽出してダイジェスト動画像データを生成する。サーバ装置1は、生成したダイジェスト動画像データを予め定められたユーザの端末装置3へ送信する。
<Modification 2>
FIG. 11 is a schematic diagram for explaining the configuration of the information processing system according to the second modification. In the information processing system according to the second modification, the
変形例2に係るサーバ装置1は、例えば予め顔画像等が登録されたユーザについて、このユーザが映されているシーンを複数の動画像データから抽出することで複数の部分動画像を生成する。サーバ装置1は、これら複数の部分動画像に対して上述のような編集処理を施して結合したダイジェスト動画像データを生成することができる。サーバ装置1は、顔画像と共に登録されたユーザのメールアドレス等に対して生成した動画像データを送信することができる。
The
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
1 サーバ装置
3 端末装置
5 カメラ
11 処理部
11a 動画像取得部
11b 部分動画像抽出部
11c 特徴特定部
11d 編集方法決定部
11e 編集処理部
11f 結合処理部
11g 編集済動画像送信部
12 記憶部
12a サーバプログラム
12b 特徴特定モデル
12c 編集方法決定テーブル
13 通信部
31 処理部
31a 撮影処理部
31b 表示処理部
31c 編集指示受付部
31d 動画像送信部
31e 動画像受信部
32 記憶部
32a プログラム
33 通信部
34 表示部
35 操作部
36 カメラ
98,99 記録媒体
101,102 アイコン
1
一実施形態に係る情報処理方法は、情報処理装置が動画像データを生成する情報処理方法であって、前記情報処理装置が、施設に設置された一又は複数のカメラが撮影した動画像データを取得し、取得した動画像データから、登録されたユーザが映された複数の部分動画像データを抽出し、抽出した部分動画像データの特徴を特定し、特定した特徴に応じて前記部分動画像データの編集処理を行い、編集した部分動画像データを結合し、結合した動画像データを、登録された端末装置へ送信する。 The information processing method according to one embodiment is an information processing method in which an information processing apparatus generates moving image data, and the information processing apparatus obtains moving image data taken by one or more cameras installed in a facility. From the acquired moving image data, a plurality of partial moving image data in which the registered user is projected are extracted, the features of the extracted partial moving image data are specified, and the partial moving image is described according to the specified features. There line editing processing data, combines the partial moving image data edited, the video data bound, and transmits to the registered terminal apparatus.
一実施形態に係る情報処理方法は、情報処理装置が動画像データを生成する情報処理方法であって、前記情報処理装置が、施設に設置された一又は複数のカメラが撮影した動画像データを取得し、取得した動画像データから、登録されたユーザが映された複数の部分動画像データを抽出し、動画像データを入力として受け付けて当該動画像データに含まれるシーンの特徴を特定した情報を出力するよう機械学習がなされた学習モデルを用いて、抽出した部分動画像データを前記学習モデルへ入力して当該学習モデルが出力する情報を取得することで前記部分動画像データの特徴を特定し、前記情報に対応付けられた編集方法に基づいて前記部分動画像データの編集処理を行い、編集した部分動画像データを結合し、結合した動画像データを、登録された端末装置へ送信する。 The information processing method according to one embodiment is an information processing method in which an information processing apparatus generates moving image data, and the information processing apparatus obtains moving image data taken by one or a plurality of cameras installed in a facility. Information that extracts a plurality of partial moving image data in which the registered user is projected from the acquired moving image data, accepts the moving image data as input, and identifies the characteristics of the scene included in the moving image data. The characteristics of the partial moving image data are specified by inputting the extracted partial moving image data into the learning model and acquiring the information output by the learning model using the learning model machine-learned to output. Then, the partial moving image data is edited based on the editing method associated with the information , the edited partial moving image data is combined, and the combined moving image data is transmitted to the registered terminal device. ..
Claims (8)
前記情報処理装置が、
動画像データを取得し、
取得した動画像データの特徴を特定し、
特定した特徴に応じて前記動画像データの編集処理を行う、
情報処理方法。 An information processing method in which an information processing device generates moving image data.
The information processing device
Get moving image data,
Identify the characteristics of the acquired moving image data and
The moving image data is edited according to the specified feature.
Information processing method.
前記動画像データの中の同一時点で複数の特徴を特定し、
特定した複数の特徴の組み合わせに応じて、前記動画像データに対して編集処理を行う、
請求項1に記載の情報処理方法。 The information processing device
Identifying multiple features at the same time in the moving image data,
Editing processing is performed on the moving image data according to a combination of a plurality of specified features.
The information processing method according to claim 1.
前記動画像データに対する装飾画像、キャラクタ画像又はエフェクト画像を重畳する処理、
前記動画像データに含まれるシーンの時間帯を変更する処理、
前記動画像データのスタイルを変更する処理、
前記動画像データに効果音又は背景音を追加する処理、
前記動画像データに含まれる音声を変更する処理、及び、
前記動画像データの再生速度を変更する処理
の少なくとも1つの処理を含む、
請求項1又は請求項2に記載の情報処理方法。 In the editing process,
Processing for superimposing a decorative image, a character image, or an effect image on the moving image data,
Processing to change the time zone of the scene included in the moving image data,
The process of changing the style of the moving image data,
Processing to add sound effects or background sounds to the moving image data,
Processing to change the sound included in the moving image data, and
Includes at least one process of changing the reproduction speed of the moving image data.
The information processing method according to claim 1 or 2.
前記動画像データから複数の部分動画像データを抽出し、
抽出した前記部分動画像データに対して前記編集処理を行い、
編集した部分動画像データを結合する、
請求項1から請求項3までのいずれか1つに記載の情報処理方法。 The information processing device
A plurality of partial moving image data are extracted from the moving image data, and
The editing process is performed on the extracted partial moving image data.
Combine the edited partial moving image data,
The information processing method according to any one of claims 1 to 3.
前記編集処理に係る設定を受け付け、
受け付けた設定に応じて前記編集処理を行う、
請求項1から請求項4までのいずれか1つに記載の情報処理方法。 The information processing device
Accepting the settings related to the editing process
Perform the editing process according to the received settings.
The information processing method according to any one of claims 1 to 4.
前記実施指示を受け付けた場合に、前記情報処理装置が前記動画像データの編集処理を行い、
編集前の前記動画像データに代えて、編集後の動画像データを出力する、
請求項1から請求項5までのいずれか1つに記載の情報処理方法。
An image that receives an instruction to execute an editing process on the moving image data is output together with the moving image data.
When the execution instruction is received, the information processing device edits the moving image data, and the information processing device edits the moving image data.
Instead of the moving image data before editing, the moving image data after editing is output.
The information processing method according to any one of claims 1 to 5.
前記取得部が取得した動画像データの特徴を特定する特定部と、
前記特定部が特定した特徴に応じて前記動画像データの編集処理を行う編集部と
を備える情報処理装置。 The acquisition unit that acquires moving image data, and
A specific unit that identifies the characteristics of the moving image data acquired by the acquisition unit, and
An information processing device including an editing unit that edits the moving image data according to the features specified by the specific unit.
動画像データを取得し、
取得した動画像データの特徴を特定し、
特定した特徴に応じて前記動画像データを編集する
処理を実行させる、コンピュータプログラム。 On the computer
Get moving image data,
Identify the characteristics of the acquired moving image data and
A computer program that executes a process of editing the moving image data according to the specified features.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020027209A JP6830634B1 (en) | 2020-02-20 | 2020-02-20 | Information processing method, information processing device and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020027209A JP6830634B1 (en) | 2020-02-20 | 2020-02-20 | Information processing method, information processing device and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6830634B1 JP6830634B1 (en) | 2021-02-17 |
JP2021132328A true JP2021132328A (en) | 2021-09-09 |
Family
ID=74562357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020027209A Active JP6830634B1 (en) | 2020-02-20 | 2020-02-20 | Information processing method, information processing device and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6830634B1 (en) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001177750A (en) * | 1999-10-08 | 2001-06-29 | Fuji Photo Film Co Ltd | Image photographing system, image processing system, image service system interconnecting them, and photographing camera, image edit device, picture order sheet by subject and picture ordering method by subject |
JP2002024229A (en) * | 2000-07-03 | 2002-01-25 | Fuji Photo Film Co Ltd | Self-portrait image providing system |
JP2003032647A (en) * | 2001-07-18 | 2003-01-31 | Fujitsu Ltd | Image distribution system, image distribution method, image distribution program, and recording medium storing the program and capable of being read by computer |
JP2004112153A (en) * | 2002-09-17 | 2004-04-08 | Fujitsu Ltd | Image processing system |
JP2007043372A (en) * | 2005-08-02 | 2007-02-15 | Sony Corp | Content-producing apparatus, content-producing method, and computer program |
JP2014112787A (en) * | 2012-12-05 | 2014-06-19 | Samsung Electronics Co Ltd | Video processing device and video processing method |
WO2015125815A1 (en) * | 2014-02-20 | 2015-08-27 | シャープ株式会社 | Video image editing apparatus |
JP2017157915A (en) * | 2016-02-29 | 2017-09-07 | 株式会社Hearr | Portable terminal device and content distribution system |
JP2019092094A (en) * | 2017-11-16 | 2019-06-13 | 株式会社豊田中央研究所 | Image generation device, display system, and program |
JP2019186843A (en) * | 2018-04-16 | 2019-10-24 | 株式会社エヌエイチケイメディアテクノロジー | Digest video generation device and digest video generation program |
-
2020
- 2020-02-20 JP JP2020027209A patent/JP6830634B1/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001177750A (en) * | 1999-10-08 | 2001-06-29 | Fuji Photo Film Co Ltd | Image photographing system, image processing system, image service system interconnecting them, and photographing camera, image edit device, picture order sheet by subject and picture ordering method by subject |
JP2002024229A (en) * | 2000-07-03 | 2002-01-25 | Fuji Photo Film Co Ltd | Self-portrait image providing system |
JP2003032647A (en) * | 2001-07-18 | 2003-01-31 | Fujitsu Ltd | Image distribution system, image distribution method, image distribution program, and recording medium storing the program and capable of being read by computer |
JP2004112153A (en) * | 2002-09-17 | 2004-04-08 | Fujitsu Ltd | Image processing system |
JP2007043372A (en) * | 2005-08-02 | 2007-02-15 | Sony Corp | Content-producing apparatus, content-producing method, and computer program |
JP2014112787A (en) * | 2012-12-05 | 2014-06-19 | Samsung Electronics Co Ltd | Video processing device and video processing method |
WO2015125815A1 (en) * | 2014-02-20 | 2015-08-27 | シャープ株式会社 | Video image editing apparatus |
JP2017157915A (en) * | 2016-02-29 | 2017-09-07 | 株式会社Hearr | Portable terminal device and content distribution system |
JP2019092094A (en) * | 2017-11-16 | 2019-06-13 | 株式会社豊田中央研究所 | Image generation device, display system, and program |
JP2019186843A (en) * | 2018-04-16 | 2019-10-24 | 株式会社エヌエイチケイメディアテクノロジー | Digest video generation device and digest video generation program |
Also Published As
Publication number | Publication date |
---|---|
JP6830634B1 (en) | 2021-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11533456B2 (en) | Group display system | |
CN102945276B (en) | Generation and update based on event playback experience | |
JP5790509B2 (en) | Image reproduction apparatus, image reproduction program, and image reproduction method | |
US9253447B2 (en) | Method for group interactivity | |
TWI581128B (en) | Method, system, and computer-readable storage memory for controlling a media program based on a media reaction | |
JP5214825B1 (en) | Presentation content generation apparatus, presentation content generation method, presentation content generation program, and integrated circuit | |
CN111866404B (en) | Video editing method and electronic equipment | |
US9319640B2 (en) | Camera and display system interactivity | |
US9047320B2 (en) | Music recommendation system, information processing device, and information processing method | |
US20130307997A1 (en) | Forming a multimedia product using video chat | |
WO2011114634A1 (en) | Data processing device and data processing method | |
US9973649B2 (en) | Photographing apparatus, photographing system, photographing method, and recording medium recording photographing control program | |
CN112188117A (en) | Video synthesis method, client and system | |
CN103198084A (en) | Image display system, image display apparatus, server, and image display method | |
JP5878523B2 (en) | Content processing apparatus and integrated circuit, method and program thereof | |
JP2010252008A (en) | Imaging device, displaying device, reproducing device, imaging method and displaying method | |
KR102547942B1 (en) | Method and apparatus for providing video special effects for producing short-form videos in a video commerce system | |
JP5532661B2 (en) | Image extraction program and image extraction apparatus | |
JP6830634B1 (en) | Information processing method, information processing device and computer program | |
CN114222995A (en) | Image processing method and device and electronic equipment | |
Garfield | Get seen: Online video secrets to building your business | |
WO2023130715A1 (en) | Data processing method and apparatus, electronic device, computer-readable storage medium, and computer program product | |
JP5509287B2 (en) | Reproduction display device, reproduction display program, reproduction display method, and image processing server | |
KR102493886B1 (en) | Method for storing mood information during the taking pictures and playing thereof | |
WO2022262560A1 (en) | Image display method and apparatus, device, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200220 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200220 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201013 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6830634 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |