JP7144571B2 - 情報機器、及びカメラ画像共有システム - Google Patents

情報機器、及びカメラ画像共有システム Download PDF

Info

Publication number
JP7144571B2
JP7144571B2 JP2021081702A JP2021081702A JP7144571B2 JP 7144571 B2 JP7144571 B2 JP 7144571B2 JP 2021081702 A JP2021081702 A JP 2021081702A JP 2021081702 A JP2021081702 A JP 2021081702A JP 7144571 B2 JP7144571 B2 JP 7144571B2
Authority
JP
Japan
Prior art keywords
camera
image
captured
framing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021081702A
Other languages
English (en)
Other versions
JP2021132392A (ja
Inventor
和彦 吉澤
康宣 橋本
万寿男 奥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2021081702A priority Critical patent/JP7144571B2/ja
Publication of JP2021132392A publication Critical patent/JP2021132392A/ja
Application granted granted Critical
Publication of JP7144571B2 publication Critical patent/JP7144571B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、カメラとディスプレイ付きの情報機器、及び複数のカメラの撮影画像を共有するカメラ画像共有システムに関する。
CPU(Central Processing Unit)とメモリ等で構成される情報機器に、無線ネットワーク機能、カメラ機能、ディスプレイ機能を一体化した情報機器が広く利用されている。具体的には、スマートフォン、タブレットPC(Personal Computer)により、いつでもどこでもカメラで撮影し、撮影した画像をネットワーク経由でSNS(Social Network Service)でシェアできる。さらにアウトカメラに加え、自撮り用のインカメラを備えた情報機器もある。
複数のカメラで撮影した画像を合成する方法として、特許文献1には、複数のカメラ画像を階層的に取り扱い、ユーザが第一階層の画像の一部を切り抜き、切り抜かれた領域に第二階層の画像を表示し、複数の画像を合成して表示させる方法が開示されている。
特開2014-057258号公報
特許文献1では、ユーザが第一階層の画像の一部を切り抜き、切り抜かれた領域に第二階層の画像を表示させるため、合成画像を得るための操作に手間と時間が必要となる。特にカメラ画像の数が多い場合には、ユーザにとってこの操作は煩わしいものとなる。
本発明の目的は、複数のカメラ撮影画像を合成するのに特別なユーザ操作が必要なく、合成する画像の選択が容易である情報機器、及びカメラ画像共有システムを提供することにある。
本発明は、カメラとディスプレイを有する情報機器において、通信手段によりカメラ画像共有サービス提供装置に接続し、カメラの撮影画像とその特徴量をアップロードするとともに、他の情報機器の撮影画像とその特徴量をダウンロードする。また、オートフレーミングサービス提供装置に接続し、複数の撮影画像を合成するための複数のフレーミングパターンをダウンロードする。情報機器のフレーミング手段は、カメラの撮影画像の特徴量を算出し、算出した特徴量とダウンロードした他の情報機器の撮影画像の特徴量に基づいて、ダウンロードした複数のフレーミングパターンから1つのフレーミングパターンを選択して、前記カメラと他の情報機器の撮影画像を合成する。合成した前記カメラと他の情報機器の撮影画像をディスプレイに表示する。
本発明によれば、複数のカメラ撮影画像を合成するのに特別なユーザ操作が必要なく、合成する画像の選択が容易な情報機器、及びカメラ画像共有システムを提供することができる。
実施例1に係る情報機器の外観を示す図である。 情報機器の構成を示すブロック図である。 情報機器とサービス提供装置で構成されるカメラ画像共有システムの構成を示す図である。 情報機器の撮影処理の動作フローを示す図である。 情報機器の再生処理の動作フローを示す図である。 情報機器のSNS処理の動作フローを示す図である。 情報機器のオートフレーミング処理の動作フローを示す図である。 オートフレーミング処理に用いるカメラ画像の特徴量の例を示す図である。 情報機器の表示画面の例(撮影時)を示す図である。 情報機器の表示画面の例(オートフレーミング処理)を示す図である。 情報機器の表示画面の例(再生時)を示す図である。 情報機器の表示画面の例(フレーミングパターン変更)を示す図である。 情報機器の表示画面の例(フレーミングパターン変更)を示す図である。 情報機器の表示画面の例(異なる合成画面)を示す図である。 実施例2に係るユーザ管理データベースの例を示す図である。 オートフレーミングサービス提供装置の動作フローを示す図である。 フレーミングパターンの評価指標値の例を示す図である。 実施例3に係る情報機器の撮影動作フローを示す図である。 情報機器の表示画面の例(横画面撮影時)を示す図である。 情報機器の表示画面の例(縦画面撮影時)を示す図である。 情報機器の表示画面の例(画像の選択方法)を示す図である。 情報機器の表示画面の例(画像の選択方法)を示す図である。 情報機器の表示画面の例(画像の選択方法)を示す図である。 情報機器の表示画面の例(再生時)を示す図である。 情報機器の表示画面の例(再生時)を示す図である。
以下、本発明の実施形態を図面を参照しながら説明する。本発明は、カメラ機能を有する情報機器とカメラ画像共有サービス提供装置を含む画像共有システムに関するものであるが、各装置について分けて説明する。
実施例1では、カメラとディスプレイを有する情報機器について説明する。
図1は、実施例1に係る情報機器1の外観を示す図で、(a)は前面図、(b)は背面図である。情報機器1は、カメラ機能とディスプレイ機能を一体化した情報機器であって、例えば、スマートフォン、タブレットPCなどが相当する。その構成は、1aはリターン釦、1bはホーム釦、1cはマルチタスク釦、2はアウト(OUT)カメラ、2aはオートフォーカス(AF)センサ、2b/2cはRGBセンサ/LEDフラッシュ、3はイン(IN)カメラ、4はタッチセンサ一体型のディスプレイ、4aは光センサ、5は受話口である。背面側にあるアウト(OUT)カメラ2では外部の被写体を撮影し、前面側(ディスプレイ4側)にあるイン(IN)カメラ3では自撮りすることができる。以下、情報機器1のことを単に「カメラ」とも呼ぶことにする。
図2は、情報機器(カメラ)1の構成を示すブロック図である。OUTカメラ2は、イメージセンサ201とカメラプロセッサ202から成る。OUTカメラ2での撮影に際し、AFセンサ2aはオートフォーカス機能を、RGBセンサ2bはオートホワイトバランス機能を、LEDフラッシュ2cは暗い撮影環境でのフラッシュ機能をサポートする。RGBセンサ2bとLEDフラッシュ2cは、排他的に動作可能であり、図1(b)で示すように、OUTカメラ2が配置される背面の1つの窓を共有している。またINカメラ3は、イメージセンサ301とカメラプロセッサ302から成り、図1(a)に示すように前面に配置され、情報機器1のユーザの自撮りを主な目的として使用される。
光センサ4aは、周囲の明るさを検知してディスプレイ4のバックライトを制御し、写し出す表示画面をユーザにとって見えやすい明るさに設定する。位置センサ108は、GPS(Global Positioning System)により情報機器1の位置情報を取得する。
ビデオプロセッサ109は、ネットワークからダウンロードする画像データやSDC(SDカード)105bから読み出す画像データを処理して、グラフィックプロセッサ110に送る。グラフィックプロセッサ110は、これら画像データのほか、CPU102で処理するHTML(Hyper Text Markup Language)データ等をグラフィックデータに変換して、ディスプレイ4に表示させる。
モバイル通信インタフェース(IF)101aは、3GやLTE(Long Term Evolution)といった通信方式をカバーし、無線LANインタフェース(IF)101bとともに、画像データ等の大容量データをダウンロードするのに好適な無線ネットワーク機能を提供する。無線ネットワークとしては、これら以外の方式のものであってもよい。
CPU102、RAM(Random Access Memory)103、FROM(Flash ROM)104は、情報機器1の中心的な演算及びプログラム実行の役割を担っている。FROM104には、画像及び音声の処理やHTMLブラウザなどのプログラムが格納され、必要に応じてRAM103に展開し、CPU102で実行する。RAM103には、一時的に画像及びHTMLのテータも蓄えられる。
特にFROM104には、本実施例の特徴であるカメラ共有アプリ104aやSNSアプリ104dのプログラムが格納される。これらのプログラムもまた、RAM103に展開され、CPU102で実行される。ここにカメラ共有アプリ104aは、モバイル通信IF101aや無線LANIF101bを介しインターネット9との間で画像データを送受信する画像通信プロセス104bと、ディスプレイ4に複数のカメラ画像を合成表示する枠組みを定義するオートフレーミングプロセス104cを含む。
SDIF105aはSDC(SDカード)105bに、様々なデータを格納することができる。例えば、前記OUTカメラ2やINカメラ3で撮影した画像データを、FROM104の他、SDC105bに蓄えることにより大容量の蓄積が可能となる。USBIF106は、USBデバイスを接続したり、外部から電源供給を受けたりするインタフェースである。
マイクロフォン107a、受話スピーカ5は音声通話に用いられ、スピーカ107bは、音楽データを聞くのに用いられる。
図3は、複数の情報機器1とサービス提供装置で構成されるカメラ画像共有システムの構成を示す図である。ある特定のエリア7(例えばイベント会場)に、情報機器(カメラ)1を所持した複数のユーザ6(A~F)が存在している状態を想定する。各ユーザA~Fは、カメラ画像共有サービス提供装置13に登録されていることを前提としているが、登録方法は限定されるものではない。各カメラ1は、それぞれのユーザ6がシャッタを押し撮影が行われる毎に、インターネット9経由でカメラ画像共有サービス提供装置13にカメラの撮影画像と該撮影画像の特徴量をアップロードする。以降では、ユーザAの撮影動作に注目して、カメラ画像共有サービス提供装置13を利用する場合を説明している。
各カメラ1とインターネット9は、モバイル通信の基地局あるいは無線LANのアクセスポイント8で接続される。また、インターネット9には、オートフレーミングサービス提供装置10、カメラ画像共有サービス提供装置13、SNSサービス提供装置16が接続されている(以下、各「・・・サービス提供装置」を単に「・・・サービス」と記す)。
カメラ画像共有サービス13は、ユーザ管理データベース(DB)14と、カメラの撮影画像データやその特徴量を格納する画像ストレージ15を有する。オートフレーミングサービス10は、フレーミング処理部11と、フレーミング処理部11で生成したフレーミングパターンを記述したフレーミングテーブル12を有する。ここにフレーミングパターンとは、複数のカメラ画像を合成する際の各画像の配置や大きさなどの表示ルールを記述したものである。オートフレーミングサービス10は、カメラ画像共有サービス13に連動したサービスとする。本例では、カメラ画像共有サービス13が有するユーザ管理DB14に登録されたユーザに対して、カメラ画像共有サービス13とオートフレーミングサービス10の提供を行い、複数のユーザが撮影したカメラ画像を共有し、これら複数の画像を好適に合成(オートフレーミング処理)することをサポートするシステムとなっている。
次に、情報機器(カメラ)1の撮影/再生/SNSの動作フローを、それぞれ図4A~4Cに分けて説明する。
図4Aは、情報機器1の撮影処理の動作フロー(S100)を示す図である。この処理では、オートフレーミング処理により、自カメラの撮影画像とこれに合成する他カメラの画像を選択して保存する。
ユーザは情報機器(カメラ)1のOUTカメラ2もしくはINカメラ3を起動する(S101)。本実施例では、複数のカメラ1のカメラ画像を共有するという目的で、OUTカメラ2の利用を想定しているが、INカメラ3であってもよい。カメラが起動されると、カメラの各種設定(オートフォーカス、オートホワイトバランス、自動露光、オートフラッシュ、撮像ピクセル数のデフォルト値設定など)を自動的に設定する(S102)。もちろん、一部を手動で設定してもよい。カメラ設定が終わると、カメラは撮影を開始し、撮影した画像をディスプレイ4に表示する(S103)。ただし、この時点ではユーザはシャッタを押していない状態である。
次にユーザは、カメラ画像共有サービス釦(図7Aの符号412)を押してカメラ共有アプリ104aを起動し、カメラ画像共有サービス13にログインする(S104)。この時、オートフレーミングサービス10も同時に開始し、フレーミングテーブル12の一部をダウンロードし、カメラ1にて保存済みのフレーミングテーブル12aを更新する(S105)。
続いて、他カメラの画像データをカメラ画像共有サービス13からダウンロードする(S106)。ダウンロードする他カメラの画像データは、共有するのに適したカメラのみに制限する。すなわち、位置センサ108で取得した位置情報を用いて自カメラの周辺に存在するカメラに限定し、例えば、自カメラを基準に前後、左右、斜めの合計8方向に対して、近い位置にあるカメラを選定する。さらに、撮影時刻については、現在時刻から遡って所定時間以内に撮影された最新の画像データのみに限定する。これらの他カメラの画像データは、その画像の特徴量とともにダウンロードされる。
また、自カメラの撮影画像について、撮影画像に写っている人物の有無、人数、人物もしくは塊のある物体の大きさ、それらの画像内の位置などの特徴量を算出する(S107)。
次に、自カメラの画像と他カメラの画像の特徴量を用いて、オートフレーミングプロセス104cによりオートフレーミング処理を行う(S108)。この処理では、どのカメラの画像をディスプレイ4のどの位置にどの程度の大きさで表示するか、複数の画像の表示が重なる場合どちらの画像を前面に表示するかなどの表示ルールとなるフレーミングパターンを自動で決定する。決定されたフレーミングパターンに従いグラフィックプロセッサ110は、自カメラと他カメラの画像を合成した表示画面を作成し、ディスプレイ4に表示する(S109)。オートフレーミング処理(S108)については、図5、図6を用いて詳細に説明する。
ユーザは、ディスプレイ4に表示された複数カメラ画像の合成画面を見て、自カメラ画像と合成したい他カメラ画像を選択する(S110)。他カメラ画像を選択した後、ユーザがカメラ1のシャッタ釦(図7A,7Bの符号413)を押すと撮影処理が行われ、自カメラの撮影画像はSDC105bなどのストレージ媒体に保存される(S111)。この時、選択された他カメラ画像は既にダウンロードされているものであり、新たに保存されることはないが、自カメラの画像データに紐付けされる。さらに、シャッタが押されたタイミングで、自カメラで撮影した画像データとその特徴量、及びS110での画像選択に基づくフレーミングパターンの情報が、カメラ画像共有サービス13にアップロードされる(S112)。これらのアップロードされたデータは、他カメラのユーザがカメラ画像共有サービス13を利用する時にも使用される。
ユーザは撮影を継続するか否かを選択し(S113)、継続するときはS106に戻り、他カメラの画像のダウンロードから繰り返し行う。このようにして、カメラ1の位置の移動、時間の経過により、ダウンロードすべき他カメラの画像を必要に応じて更新する。なお、既にダウンロード済みのデータが有効であれば、重複してダウンロードする必要はない。
図4Bは、情報機器1の再生処理の動作フロー(S120)を示す図である。この処理では、撮影した自カメラ画像に他カメラ画像を合成して再生表示する。ユーザが再生釦(図7Bの符号415)を押すと(S121)、撮影して保存済みの自カメラ画像と、これに紐付けられた他カメラ画像がストレージ媒体から読み出される(S122)。これら読み出された画像に対してオートフレーミングプロセス104cによりオートフレーミング処理を行い(S123)、その合成画面がディスプレイ4に再生表示される(S124)。また、合成時に選択されたフレーミングパターンの情報がアップロードされる(S125)。
なお再生時において、ユーザの指示でフレーミングパターンを変更したとき、例えば、自カメラ画像以外の画像を優先して画面最前面に表示させたような場合には(S126)、S123のオートフレーミング処理に戻り、S125にて、変更されたフレーミングパターンの情報が再度アップロードされる。
図4Cは、情報機器1のSNS処理の動作フロー(S130)を示す図である。ここでは、SNS(Social Network Service)サービス16を利用して撮影画像やコメントをアップロードする。
ユーザは、SNS釦(図7Cなどの符号401)を押してSNSアプリ104dを起動し(S131)、SNSサービス16にログインする(S132)。そしてカメラ画像やコメントなどのアップロードを行う(S133)。なお、前記したカメラ画像の再生処理(図4B)からSNS処理に移行させる場合には、再生画面をSNSに容易にアップロードすることができる。つまり、オートフレーミング処理(S123)と、合成画面の再生表示(S124)が行われた画面を、そのままアップロードすることができる(後述する図7C、図7D)。SNSを継続する場合は(S134)、S133に戻り画像やコメントなどのアップロードを繰り返して行う。
図5は、情報機器1のオートフレーミング処理(S140)の動作フローを示す図であり、図4AのステップS108に対応する。ただしここでは、S108での処理に限定せず、オートフレーミング処理の基本的な説明を行う。
カメラ画像共有サービス13へのログインとともに、オートフレーミング処理(S140)を開始する。自カメラは撮影を継続しており、撮影画像は例えば毎秒数コマから数十コマ程度でリフレッシュされている。リフレッシュが継続される画像の中から1コマの画像をキャプチャして(S141)、キャプチャした画像に対して特徴量の算出を行う(S142)。また他カメラに対しては、S106にてカメラ画像共有サービス13からダウンロードした特徴量を用いる(S143)。
図6は、オートフレーミング処理に用いるカメラ画像の特徴量の例を示す図である。自カメラ画像の場合、写っている人数、人群の塊の大きさと位置、人の顔の大きさ、ユーザ自身が写っているか否か、フォーカス距離、フォーカスしている物体の位置と大きさなどである。一方他カメラ画像では、これらに加え、各々のカメラの位置(自カメラからの方角と距離)、撮影時刻などを特徴量として追加する。
次に、自カメラ及び他カメラの特徴量に基づいて、自カメラが保存しているフレーミングテーブル12aからフレーミングパターンを選択する(S144)。その手法は、特徴量を要素とする検索用のインデックスベクトルを用いて、該インデックスベクトルに重み付け距離で近いインデックススベクトルを持つフレーミングパターンを、フレーミングテーブル12aから自動的に選択する。なお、フレーミングテーブル12aは、カメラ画像共有サービス13を開始するとS105にて更新されている。選択されたフレーミングパターンを用いて、グラフィックプロセッサ110は、自カメラを含む複数カメラの画像を合成した表示画面を作成する(S145)。作成した合成画面は、ディスプレイ4に表示される。
図7A~図7Fは、情報機器(カメラ)1の表示画面の例である。ここでは、ユーザAの所持するカメラ1における表示画面を示す。
図7Aは、図4Aの撮影画像表示状態(S103)での表示画面を示す。カメラ1のディスプレイ4には、ユーザAのカメラの撮影画像41と、ユーザがAであることを示すユーザマーク411、カメラ画像共有サービス釦412、シャッタ釦413、設定釦414が表示されている。ユーザAは、カメラ画像共有サービス釦412を押すことで、カメラ画像共有サービス13へのログインを開始する。
図7Bは、図4Aのオートフレーミング処理(S108)による合成画面の表示状態(S109)を示す。ユーザAのカメラの撮影画像41の他に、ユーザBのカメラの撮影画像42、ユーザCのカメラの撮影画像43、ユーザDのカメラの撮影画像44、ユーザEのカメラの撮影画像45、ユーザFのカメラの撮影画像46が表示されている。これらのカメラの撮影画像は、カメラ画像共有サービス13からダウンロードしたものであり(図4AのS106)、カメラAの撮影画像41が現時刻の画像であるのに対して、他の撮影画像は少し前の時刻にシャッタが押され、カメラ画像共有サービス13にアップロードされたものである。各撮影画像には、それぞれのユーザマーク421、431、441、451、461が表示されている。さらに各撮影画像には、ユーザAの撮影画像41と紐付け保存するか否かを選択(S110)する選択釦422、432、442、452、462が表示されている。このような合成表示を行うことで、同じイベントにおけるユーザAの撮影画像41と他のユーザB~Fの撮影画像42~46とを一緒に見ることができ、イベントの臨場感を分かりやすく伝えることができる。
続いて図7Bの例では、ユーザBの撮影画像42とユーザCの撮影画像43とが合成用に選択(紐付け)されており、ユーザAがシャッタ釦413を押すと、Aの撮影画像41と特徴量がストレージ媒体に保存されるとともに、Bの撮影画像42とCの撮影画像43、および各々の特徴量が紐付けされて保存される(S111)。
図7Cは、図4Bの再生時のオートフレーミング処理(S123)による合成画面の表示状態(S124)を示す。この場合のオートフレーミング処理(S123)は、ユーザAの撮影画像41と、これに紐付けされたユーザBの撮影画像42とユーザCの撮影画像43に対して行なわれる。ユーザAの撮影画像41が、他の画像より優先して前面に表示されている。また、SNS釦401を押せばSNSアプリ104dが起動し、この画面をアップロードすることができる。
図7Dは、図7Cの状態でフレーミングパターンを変更した場合を示す。ここでは、ユーザAがユーザBの撮影画像42をタップし、Bの撮影画像42を優先させて、再度オートフレーミング処理を実行した後の表示画面である。一般に、自分(ユーザA)のOUTカメラでは自分自身の周りの様子を撮影するが、自分自身を撮影する訳ではない。一方、他人のカメラでは自分自身(ユーザA)を撮影している可能性がある。図7Dの例では、Bの撮影画像42にユーザAが写っている場合であり、ユーザAは、Bの撮影画像42をタップして、ユーザAが写っているBの撮影画像42を拡大して前面に表示させている。
図7Eは、図7Cの状態でフレーミングパターンを変更した他の場合を示す。ここでは、ユーザAの撮影画像41をタップし、全画面に拡大表示させた例である。
図7C~7Eの表示画面は、いずれもSNSサービス16にアップロード可能である。特に図7Cや図7Dのように、Aの撮影画像をBとCの撮影画像と一緒にSNSにアップロードすることにより、イベント会場の様子を臨場感のある画像として、他のSNSユーザに伝えることができる。
図7Fは、図7Bとは異なる合成画面の例を示す。この例では、隣接する撮影画像がその境界で互いに重なりを有する場合、重なる部分の画像を斜めにカットして合成している。これにより、画像が重なって見えなくなる領域が特定の画像に偏らないように、すなわち各画像の境界を均等に表示している。
以上、実施例1によれば、複数のカメラ画像を合成した表示画面を得るために、特別なユーザ操作を必要とすることなく、合成するカメラ画像の選択が容易な情報機器、及び画像共有システムを提供することができる。さらに、イベント等で複数のカメラの状況を一目で確認できるとともに、複数のカメラ画像を合成した画面をSNSにアップロードして、臨場感のある画像をユーザ間で共有することが可能となる。
実施例2では、カメラ画像共有システムにおける、カメラ画像共有サービス提供装置(カメラ画像共有サービス)13とオートフレーミングサービス提供装置(オートフレーミングサービス)10の動作について説明する。
図8は、カメラ画像共有サービス提供装置13のユーザ管理データベース(DB)14の例を示す図である。ユーザ管理DB14に登録されているユーザは、予めカメラ画像を共有あるいは交換することを目的に、グループ名が「イベントT」というユーザグループを形成している。ユーザ管理DB14には、「さくら」をはじめN名のユーザが登録され、そのユーザニックネーム、モバイル番号、IPアドレス、パスワード、メールアドレスのデータが記述されている。これらのユーザが使用する情報機器(カメラ)は特定のものである必要はなく、カメラ機能とディスプレイ機能を有する情報機器であれば利用可能である。例えば、メールアドレスとパスワードを入力してカメラ画像共有サービス13にログインし、サービスの提供を受けることができる。
図9は、オートフレーミングサービス提供装置10におけるフレーミング処理部11の動作フローを示す図である。ここでのフレーミング処理(S200)は、ユーザのカメラ画像の特徴量を収集し、グループ化(紐付け)されている複数のカメラ画像の特徴量を要素としてインデックスベクトルを求める。そして、複数のカメラ画像を合成表示するのに好適なフレーミングパターンを求め、インデックスベクトルに対応させてフレーミングテーブル12に登録する処理である。
カメラ1から画像データと特徴量をアップロード受信すると(S201)、フレーミングテーブル12の更新を開始する(S202)。まず、アップロードされた特徴量を、カメラ特徴量データベース11aに登録する(S203)。さらに、アップロードされているカメラの位置情報から、例えば図3のユーザAのカメラに対しその周辺に位置するカメラ(ユーザB、C、D、E、F)を検索し、それらの特徴量をカメラ特徴量データベース11aから読み出す(S204)。
次に、読み出した特徴量を用いて、フレーミングパターン候補を作成する(S205)。フレーミングパターンとは、各カメラ画像を合成する際の表示ルール(配置と大きさなど)であって、図10に示すフレーミングパターンの評価指標に基づいて作成する(S206)。作成した候補が評価指標を満足する場合には、フレーミングテーブル12に追加登録し(S207)、処理を終了する(S208)。作成した候補が評価指標を満足しない場合には、S205に戻りフレーミングパターンの候補を修正して再度作成し、評価を繰り返す。
図10は、フレーミングパターンの評価指標の例を示す図である。条件として、ディスプレイ4にどのカメラ画像も表示されないブランクエリアをできるだけ小さくすること、各々のカメラ画像に写っている中心被写体(例えば人物)が視認しやすい程度の大きさであること(そのために、カメラ画像の拡大/縮小、トリミング処理を行う)が挙げられる。さらに、カメラの位置情報を使い、現実のカメラの相対位置関係を維持しながら、距離に応じた表示がなされること、具体的にはAのカメラから近いカメラ画像は比較的大きく、遠いカメラ画像は小さく表示すること、が求められる。これらを満足することで、イベント会場の臨場感を再現する合成画面を作成できる。
また、フレーミングパターン候補の作成(S205)にあたっては、過去のフレーミングパターンの選択実績をフィードバックする。フレーミングテーブル12には過去に遡って多量の選択実績のあるフレーミングパターンが登録されており、単一のグループに閉じるものではなく、広くオートフレーミングサービス10を利用するカメラの実績が蓄えられている。これら多量の実績に対して、AI(Artificial Intelligence)学習処理を行うことによって、より好適なフレーミングパターンを含むフレーミングテーブル12を作成することができる。
実施例2によれば、インターネット9上にあるオートフレーミングサービス提供装置10から好適なフレーミングパターンの提供を受けることができ、情報機器1では画像合成のためのユーザ操作が軽減する。また情報機器1の小型化、軽量化にも繋がる。
実施例3では、情報機器1においてOUTカメラ2とINカメラ3を同時に取り扱い、それらの画像のオートフレーミング処理を行う場合について説明する。情報機器1(カメラ)の構成は実施例1(図2)に示した構成と同様であり、OUTカメラ2とINカメラ3の画像のオートフレーミング処理は、FROM104に格納したオートフレーミングプロセス104cにより実行する。
図11は、実施例3における情報機器1の撮影動作フローを示す図である。実施例1(図4A)の動作フロー(S100)と同じ機能のステップについては、同一の番号を付与しており、図4Aの動作フローとは異なるステップを中心に説明する。
カメラ起動を行うと(S101)、OUTカメラ2とINカメラ3の設定を行う(S102a)。カメラの特徴量算出(S107a)では、OUTカメラ2とINカメラ3各々のカメラ画像の特徴量を計算し、オートフレーミング処理(S108a)では、OUTカメラ2とINカメラ3の2つのカメラ画像を対象とする。なお、情報機器1がOUTカメラ2、INカメラ3以外のカメラを備える場合には、備える全てのカメラ画像を対象としてよい。オートフレーミング処理の結果、OUTカメラ2とINカメラ3のカメラ画像を合成した画面が表示される(S109)。ユーザはこの中から撮影する画像を選択して(S110a)、撮影保存(シャッタ押し)を行う(S111)。
なお、本実施例においても、カメラ画像共有サービス13の利用が可能であり、そのパスを破線で示している。任意のタイミングでログインし(S104)、フレーミングテーブル12や他ユーザのカメラ画像をダウンロードして(S106)、オートフレーミング処理(S108)を行う。これを撮影保存し、カメラ画像データや特徴量、さらには選択したフレームパターンをアップロード(S112)する。
なお、再生処理とSNS処理に関しては、実施例1(図4B,図4C)の動作フローと同様である。
図12~図14は、情報機器(カメラ)1の表示画面の例である。
図12Aと図12Bは、撮影時の合成画面の表示状態を示し、図11におけるステップS109に対応する。図12Aは、横画面でカメラ撮影を行い、OUTカメラ2の画像48とINカメラ3の画像47を横方向に並べて表示するフレーミングパターンが適用されている(S108a)。撮影画像の選択(S110a)では、選択釦482をチェックし、OUTカメラ2の画像48を選択している。
図12Bは、縦画面でカメラ撮影を行い、OUTカメラ2の画像48とINカメラ3の画像47を縦方向に並べて表示するフレーミングパターンが適用されている。撮影画像の選択では、選択釦482と472をチェックし、OUTカメラ2の画像48とINカメラ3の画像47の両方を選択している。この状態でシャッタ釦413を押すと(S111)、OUTカメラ2とINカメラ3の両方の画像が同時に撮影保存される。
図13A~図13Cは、合成するカメラ画像の選択操作方法を示す図である。本例ではカメラ画像の選択は選択釦ではなくシャッタ釦413で行い、選択したいカメラ画像の位置にシャッタ釦413を移動(ドラッグ)させる。
図13Aでは、シャッタ釦413をINカメラ3の画像47上に移動させ、画像47の外枠が太線でハイライト表示され選択されていることを示す。図13Bでは、シャッタ釦413をOUTカメラ2の画像48上に移動させ、画像48がハイライト表示され選択されていることを示す。また図13Cでは、シャッタ釦413を画像48と画像47の境界線上に移動させ、画像48と画像47をハイライト表示して、OUTカメラ2とINカメラ3の両方の画像を選択している。
本例では、シャッタ釦413で撮影保存する画像を選択するという簡単な操作方法を採用している。さらに、シャッタ釦413を移動(ドラッグ)して、シャッタ釦413から指を離すときシャッタが切れるようにしておけば、カメラ画像を選択するという操作とシャッタを切るという操作がユーザの一連の操作で可能となり、使い勝手が一層向上する。
図14Aと図14Bは、撮影保存したカメラ画像を再生表示した状態を示す。図4Bの再生時の動作フローで、オートフレーミング処理(S123)の後、合成画面の表示(S124)に対応する。図14A、図14Bの例では、ともにカメラ画像の中心付近の被写体をクローズアップして表示している。ただし、図14Aでは、OUTカメラ2の画像48とINカメラ3の画像47を同等に扱うフレーミングパターンを適用しているのに対し、図14Bでは、OUTカメラ2の画像48を主となるように表示するフレーミングパターンを適用している。
以上、実施例3によれば、OUTカメラとINカメラの画像を合成した表示画面を得るのに特別なユーザ操作を必要とすることなく、撮影するカメラの選択が容易な情報機器、及びカメラ画像共有システムを提供することができる。さらに、カメラ画像の選択操作とシャッタ操作がシームレスなGUI(グラフィカルユーザインタフェース)の提供も可能となる。
以上各実施例を説明したが、本発明はこれらに限るものでなく、例えば、ある実施例の構成の一部を他の実施例に置き換えることが可能である。また、ある実施例の構成に、他の実施例の構成を加えることも可能である。これらは全て本発明の範疇に属するものである。さらに、文中や図中に現れる数値やメッセージ等もあくまで一例であり、異なるものを用いても本発明の効果を損なうものではない。
また、発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実装してもよい。また、マイクロプロセッサユニット、CPU等がそれぞれの機能等を実現する動作プログラムを解釈して実行することによりソフトウェアで実装してもよい。また、ソフトウェアの実装範囲を限定するものでなく、ハードウェアとソフトウェアを併用してもよい。
1:情報機器(カメラ)、2:OUTカメラ、3:INカメラ、4:ディスプレイ、9:インターネット、10:オートフレーミングサービス提供装置、11:フレーミング処理部、12:フレーミングテーブル、13:カメラ画像共有サービス提供装置、14:ユーザ管理DB、15:画像ストレージ、16:SNSサービス提供装置、101a:モバイル通信IF、101b:無線LANIF、102:CPU、103:RAM、104:FROM、104a:カメラ共有アプリ、104b:画像通信プロセス、104c:オートフレーミングプロセス、104d:SNSアプリ、105b:SDC、108:位置センサ、109:ビデオプロセッサ、110:グラフィックプロセッサ。

Claims (18)

  1. 第一のカメラとディスプレイを有する情報機器であって、
    ネットワークを介して画像を取得あるいは送信する通信手段と、
    前記第一のカメラの撮影画像と前記通信手段を介して取得した外部の第二のカメラの撮影画像を合成するフレーミング手段を備え、
    前記合成した画面を前記ディスプレイに表示し、前記第一のカメラの撮影画像と紐付けて表示される画像として前記ディスプレイに表示された画面からユーザにより選択された前記画像が前記第二のカメラの撮影画像であることを示す紐付け情報をストレージ媒体に保存し、
    さらに、前記第一のカメラの撮影画像とユーザにより選択された前記第二のカメラの撮影画像とを合成した画像を前記通信手段を介して送信することを特徴とする情報機器。
  2. 請求項1に記載の情報機器であって、
    前記通信手段は、前記第二のカメラの撮影画像とともに該撮影画像の特徴量を取得し、
    前記フレーミング手段は、前記第一のカメラの撮影画像の特徴量を算出し、
    該算出した特徴量と前記取得した前記第二のカメラの撮影画像の特徴量に基づいて、前記第一のカメラと前記第二のカメラの撮影画像を合成するためのフレーミングパターンを決定することを特徴とする情報機器。
  3. 請求項2に記載の情報機器であって、
    前記通信手段は、撮影画像を合成するための複数のフレーミングパターンの集合を取得し、
    前記フレーミング手段は、前記取得したフレーミングパターンの集合から前記特徴量に基づいて1つのフレーミングパターンを選択することを特徴とする情報機器。
  4. 請求項1に記載の情報機器であって、
    前記通信手段が前記第二のカメラの撮影画像を取得するとき、前記フレーミング手段は、前記第二のカメラの位置情報と撮影時刻情報により取得する撮影画像を限定することを特徴とする情報機器。
  5. 請求項1に記載の情報機器であって、
    前記第一のカメラの撮影時に、該第一のカメラの撮影画像と、該撮影画像の特徴量及び位置情報を、前記通信手段により前記ネットワークに送信することを特徴とする情報機器。
  6. 請求項1に記載の情報機器であって、
    前記通信手段は、前記第二のカメラの撮影画像とともに該撮影画像の特徴量を取得し、
    前記フレーミング手段は、前記第一のカメラの撮影画像の特徴量を算出し、
    該算出した特徴量と前記紐付けされた前記第二のカメラの撮影画像の特徴量に基づいて、前記第一のカメラと前記第二のカメラの撮影画像を合成するためのフレーミングパターンを決定し、
    該決定したフレーミングパターンに従い、前記第一のカメラの撮影画像と前記紐付けされた前記第二のカメラの撮影画像とを合成した画面を前記ディスプレイに表示することを特徴とする情報機器。
  7. 請求項2に記載の情報機器であって、
    前記フレーミング手段で決定したフレーミングパターンの情報を、前記通信手段により前記ネットワークに送信することを特徴とする情報機器。
  8. 請求項6に記載の情報機器であって、
    前記ディスプレイに表示された合成画面に対し、ユーザが任意の撮影画像をタップすることで、前記フレーミング手段は前記フレーミングパターンの決定を変更することを特徴とする情報機器。
  9. 請求項1に記載の情報機器であって、
    前記フレーミング手段は、前記ディスプレイに表示される複数の撮影画像がその境界で重なりを有する場合、各撮影画像の境界が均等に表示されるように各撮影画像の表示境界を変更することを特徴とする情報機器。
  10. 第一のカメラとディスプレイを有する情報機器を用いた情報処理方法であって、
    ネットワークを介して画像を取得あるいは送信する通信手段と、
    前記第一のカメラの撮影画像と前記通信手段を介して取得した外部の第二のカメラの撮影画像を合成するフレーミング手段を用いて、
    前記合成した画面を前記ディスプレイに表示し、前記第一のカメラの撮影画像と紐付けて表示される画像として前記ディスプレイに表示された画面からユーザにより選択された前記画像が前記第二のカメラの撮影画像であることを示す紐付け情報をストレージ媒体に保存し、
    さらに、前記第一のカメラの撮影画像とユーザにより選択された前記第二のカメラの撮影画像とを合成した画像を前記通信手段を介して送信することを特徴とする情報処理方法。
  11. 請求項10に記載の情報処理方法であって、
    前記通信手段を用いて、前記第二のカメラの撮影画像とともに該撮影画像の特徴量を取得し、
    前記フレーミング手段を用いて、前記第一のカメラの撮影画像の特徴量を算出し、
    該算出した特徴量と前記取得した前記第二のカメラの撮影画像の特徴量に基づいて、前記第一のカメラと前記第二のカメラの撮影画像を合成するためのフレーミングパターンを決定することを特徴とする情報処理方法。
  12. 請求項11に記載の情報処理方法であって、
    前記通信手段を用いて、撮影画像を合成するための複数のフレーミングパターンの集合を取得し、
    前記フレーミング手段を用いて、前記取得したフレーミングパターンの集合から前記特徴量に基づいて1つのフレーミングパターンを選択することを特徴とする情報処理方法。
  13. 請求項10に記載の情報処理方法であって、
    前記通信手段を用いて前記第二のカメラの撮影画像を取得するとき、前記フレーミング手段を用いて、前記第二のカメラの位置情報と撮影時刻情報により取得する撮影画像を限定することを特徴とする情報処理方法。
  14. 請求項10に記載の情報処理方法であって、
    前記第一のカメラの撮影時に、該第一のカメラの撮影画像と、該撮影画像の特徴量及び位置情報を、前記通信手段を用いて前記ネットワークに送信することを特徴とする情報処理方法。
  15. 請求項10に記載の情報処理方法であって、
    前記通信手段を用いて、前記第二のカメラの撮影画像とともに該撮影画像の特徴量を取得し、
    前記フレーミング手段を用いて、前記第一のカメラの撮影画像の特徴量を算出し、
    該算出した特徴量と前記紐付けされた前記第二のカメラの撮影画像の特徴量に基づいて、前記第一のカメラと前記第二のカメラの撮影画像を合成するためのフレーミングパターンを決定し、
    該決定したフレーミングパターンに従い、前記第一のカメラの撮影画像と前記紐付けされた前記第二のカメラの撮影画像とを合成した画面を前記ディスプレイに表示することを特徴とする情報処理方法。
  16. 請求項11に記載の情報処理方法であって、
    前記フレーミング手段を用いて決定したフレーミングパターンの情報を、前記通信手段を用いて前記ネットワークに送信することを特徴とする情報処理方法。
  17. 請求項15に記載の情報処理方法であって、
    前記ディスプレイに表示された合成画面に対し、ユーザが任意の撮影画像をタップすることで、前記フレーミング手段により前記フレーミングパターンの決定を変更することを特徴とする情報処理方法。
  18. 請求項10に記載の情報処理方法であって、
    前記フレーミング手段を用いて、前記ディスプレイに表示される複数の撮影画像がその境界で重なりを有する場合、各撮影画像の境界が均等に表示されるように各撮影画像の表示境界を変更することを特徴とする情報処理方法。
JP2021081702A 2018-01-12 2021-05-13 情報機器、及びカメラ画像共有システム Active JP7144571B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021081702A JP7144571B2 (ja) 2018-01-12 2021-05-13 情報機器、及びカメラ画像共有システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019564246A JP6886048B2 (ja) 2018-01-12 2018-01-12 情報機器、及びカメラ画像共有システム
PCT/JP2018/000713 WO2019138552A1 (ja) 2018-01-12 2018-01-12 情報機器、及びカメラ画像共有システム
JP2021081702A JP7144571B2 (ja) 2018-01-12 2021-05-13 情報機器、及びカメラ画像共有システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019564246A Division JP6886048B2 (ja) 2018-01-12 2018-01-12 情報機器、及びカメラ画像共有システム

Publications (2)

Publication Number Publication Date
JP2021132392A JP2021132392A (ja) 2021-09-09
JP7144571B2 true JP7144571B2 (ja) 2022-09-29

Family

ID=67219485

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019564246A Active JP6886048B2 (ja) 2018-01-12 2018-01-12 情報機器、及びカメラ画像共有システム
JP2021081702A Active JP7144571B2 (ja) 2018-01-12 2021-05-13 情報機器、及びカメラ画像共有システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019564246A Active JP6886048B2 (ja) 2018-01-12 2018-01-12 情報機器、及びカメラ画像共有システム

Country Status (4)

Country Link
US (1) US20210067741A1 (ja)
JP (2) JP6886048B2 (ja)
CN (1) CN111587570A (ja)
WO (1) WO2019138552A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7432463B2 (ja) 2019-09-19 2024-02-16 株式会社モリタホールディングス 収納台、訪問入浴車

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021083146A1 (zh) 2019-10-30 2021-05-06 北京字节跳动网络技术有限公司 视频处理方法、装置、终端及存储介质
CN117425057A (zh) * 2022-07-07 2024-01-19 抖音视界(北京)有限公司 用于影像拍摄的方法、装置、设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048835A (ja) 2014-08-27 2016-04-07 オリンパス株式会社 撮像装置、撮像装置の制御方法、撮像装置の制御プログラム、及び撮像システム
JP2016081173A (ja) 2014-10-14 2016-05-16 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、画像送信装置及びユースシーン分析方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10003762B2 (en) * 2005-04-26 2018-06-19 Invention Science Fund I, Llc Shared image devices
JP6128929B2 (ja) * 2013-04-17 2017-05-17 キヤノン株式会社 撮像装置及びその制御方法並びにプログラム
JP5788455B2 (ja) * 2013-09-30 2015-09-30 富士フイルム株式会社 画像割当装置および画像割当方法
KR102422448B1 (ko) * 2017-11-21 2022-07-19 삼성전자 주식회사 이미지와 관련된 링크 정보를 이용하여 외부 전자 장치와 이미지를 공유하는 방법 및 전자 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048835A (ja) 2014-08-27 2016-04-07 オリンパス株式会社 撮像装置、撮像装置の制御方法、撮像装置の制御プログラム、及び撮像システム
JP2016081173A (ja) 2014-10-14 2016-05-16 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、画像送信装置及びユースシーン分析方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7432463B2 (ja) 2019-09-19 2024-02-16 株式会社モリタホールディングス 収納台、訪問入浴車

Also Published As

Publication number Publication date
WO2019138552A1 (ja) 2019-07-18
JPWO2019138552A1 (ja) 2020-12-24
CN111587570A (zh) 2020-08-25
JP2021132392A (ja) 2021-09-09
JP6886048B2 (ja) 2021-06-16
US20210067741A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
JP7144571B2 (ja) 情報機器、及びカメラ画像共有システム
TWI450111B (zh) 用於基於影像捕捉裝置呈現的使用者建議之導引式攝影術之方法、電腦可使用媒體、及裝置
US20120321131A1 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
WO2006064933A1 (en) Composite photograph creation system and composite photograph creation apparatus
JP6445707B2 (ja) 画像処理方法及び装置
JP2009129398A (ja) 画像表示装置および画像表示方法
JP2015198300A (ja) 情報処理装置、撮像装置、画像管理システム
EP3764633B1 (en) Photographing method, device, storage medium, and computer program
JP6086436B2 (ja) 写真シール遊戯システム
JP6574950B2 (ja) 写真シール遊戯システム
JP2019149617A (ja) 撮影システム、及び写真撮影装置
JP2012199811A (ja) 情報端末装置、送信方法及びプログラム
JP2015115768A (ja) 画像提供システム
WO2023021759A1 (ja) 情報処理装置、情報処理方法
JP2014238794A (ja) サーバ、撮像装置、サーバの制御プログラム、撮像装置の制御プログラム
JP6849851B2 (ja) 撮影システム、撮影装置及びユーザ撮影方法
JP7263791B2 (ja) 表示システム及び撮影画像表示方法
JP4506966B2 (ja) 合成写真作成装置、合成写真作成方法、合成写真作成プログラム及び、合成写真作成システム
JP2005074856A (ja) 印刷システム
JP2017092528A (ja) 撮影装置、撮影方法、画像管理システム、及びプログラム
JP2017004113A (ja) 操作支援装置、操作支援システム及び操作支援方法
JP2016143152A (ja) 撮影装置、情報処理装置、端末装置、捜索支援システム、撮影制御方法、撮影制御プログラム、情報処理方法及びプログラム
JP2016051904A (ja) 撮影支援装置、撮影支援システム、撮影支援方法及び撮影支援プログラム
CN104869302B (zh) 摄影设备和图像记录方法
JP6429531B2 (ja) 画像共有システム及び画像共有方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210513

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220915

R150 Certificate of patent or registration of utility model

Ref document number: 7144571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150