JP2017511917A - 音楽記号を認識するための方法および装置 - Google Patents

音楽記号を認識するための方法および装置 Download PDF

Info

Publication number
JP2017511917A
JP2017511917A JP2016551230A JP2016551230A JP2017511917A JP 2017511917 A JP2017511917 A JP 2017511917A JP 2016551230 A JP2016551230 A JP 2016551230A JP 2016551230 A JP2016551230 A JP 2016551230A JP 2017511917 A JP2017511917 A JP 2017511917A
Authority
JP
Japan
Prior art keywords
symbol
music
graph
cost
musical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016551230A
Other languages
English (en)
Other versions
JP6506770B2 (ja
Inventor
ヴァレント,ファビオ
ラリカン,ピエール−ミシェル
Original Assignee
マイスクリプト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マイスクリプト filed Critical マイスクリプト
Publication of JP2017511917A publication Critical patent/JP2017511917A/ja
Application granted granted Critical
Publication of JP6506770B2 publication Critical patent/JP6506770B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/196Recognition using electronic means using sequential comparisons of the image signals with a plurality of references
    • G06V30/1983Syntactic or structural pattern recognition, e.g. symbolic string recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/196Recognition using electronic means using sequential comparisons of the image signals with a plurality of references
    • G06V30/1983Syntactic or structural pattern recognition, e.g. symbolic string recognition
    • G06V30/1985Syntactic analysis, e.g. using a grammatical approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/30Character recognition based on the type of data
    • G06V30/304Music notations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • G06V30/347Sampling; Contour coding; Stroke extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • G10G1/04Transposing; Transcribing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/096Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/221Keyboards, i.e. configuration of several keys or key-like input devices relative to one another
    • G10H2220/241Keyboards, i.e. configuration of several keys or key-like input devices relative to one another on touchscreens, i.e. keys, frets, strings, tablature or staff displayed on a touchscreen display for note input purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/441Image sensing, i.e. capturing images or optical patterns for musical purposes or musical control purposes
    • G10H2220/451Scanner input, e.g. scanning a paper document such as a musical score for automated conversion into a musical file format

Abstract

手書き音楽符号から音楽記号を認識するための音楽記号認識装置および方法を開示する。様々な実装例は、−手書き音楽符号を検出するステップ(S2)と、−手書き音楽符号を複数の基本インクセグメントにセグメント化するステップ(S6)と、−基本インクセグメントをグラフィックオブジェクトにグループ化するステップ(S8)と、−各グラフィックオブジェクトについて、1つの音楽記号候補および記号コスト決定するステップ(S10)と、−音楽的記号候補を構文解析するステップ(S12)と、を含み、ここで、構文解析するステップは、・文法ルールを音楽記号候補に適用することによってグラフを形成するステップであって、各グラフは、少なくとも1つの下位ノードに適用された文法ルールに対応する非末端ノードを備える、ステップ(S14)と、・各適用された文法ルールをその適用された文法の適切性を代表する空間コストに関連付けるステップ(S16)と、・記号コストおよび空間コストに基づいて、グラフを、手書き音楽符号の最も代表的なグラフとして選択するステップ(S18)と、を含む。【選択図】図9

Description

本発明は、手書き音楽符号の音楽記号への変換に関し、より詳細にはデジタルフォーマットの手書き音楽符号に基づいて音楽記号を認識する方法およびそのような方法を実施するための装置に関する。
本発明は、入力デバイス上でユーザによって入力された手書き音楽符号、または電子フォーマット(例えば、電子文書)で予め受け取られたかもしくは記憶されていて、そして音楽記号を認識する目的で処理される手書き音楽符号に適用可能である。
ここ数年にわたり、スマートフォン、ポケットPCまたはタブレットPCなどのペンとの相互作用に基づくコンピュータシステムが著しく成長してきた。タッチスクリーン上で指またはスタイラスを使用することは、非常に直感的である。なぜなら、それにより、ユーザは、紙面上で行うような自然なやり方で作詞したり、作曲したりすることができるからである。
現在、ユーザによって入力された手書き符号を認識するための能力を有するタッチスクリーンを備えた入力デバイスが多く存在する。
例えば、タッチスクリーン上で実現される手書き描画の解釈(すなわち、オンライン認識)は、複雑な処理を必要とする。なぜなら、これらの描画は、対象の符号の種類、ユーザのスタイルなどに応じて、様々な性質の多くの要素から構成され得るからである。オンライン文書の認識は、オンザフライで、またはユーザの明示的な要求などの特定の条件の検出時のみに、生じることができる。オンザフライ認識システムは、文書が書かれている最中にユーザのストロークを対応の記号表現に直接変換する。これは、重要な処理能力を必要とする。
手書き音楽認識は、ここ何年かにわたっていくつかの進展が見られた特別な分野である。オフライン認識システム(特に、スキャンされた音楽符号に適用される光学方法)についていくつかの改善が達成されてきたが、オンライン認識システムのための音楽記号認識は、効率やユーザにとっての使いやすさの点でまだ満足の行くものではない。
特許文献1は、音符のメニューが音楽エディタアプリケーション上に提供され、ユーザが所望の音符または音楽記号上をクリックするシステムを記載する。しかし、このアプリケーションは、ユーザが音楽記号を自然で容易なやり方で書くことができないという制約などのいくつかの欠点を有する。
米国特許第6538187号明細書
そこで、手書き音楽符号に基づいて音楽記号をより効率よく認識することを可能にする解決策が求められている。より高い効率が求められているのは、タッチスクリーンなどの入力デバイス上でユーザによって入力された音楽符号の処理、または後の処理のために電子フォーマットで予め記憶されている手書き音楽符号である。また、ユーザが音楽符号を書くためのより使いやすい方法が求められている。
本発明は、上記の要求および欠点に対応することを目的とする。本発明の他の目的および利点は、本明細書から導かれ得る。
本発明は、音楽記号を手書き音楽符号に基づいて認識するための音楽記号認識装置によって実施される方法を提供する。当該方法は、
−手書き音楽符号を検出するステップと、
−前記手書き音楽符号を複数の基本インクセグメントにプレセグメント化するステップと、
−前記基本インクセグメントを基本インクセグメント間の空間的関係に基づいてグラフィックオブジェクトにグループ化するステップであって、ここで、各基本インクセグメントは、前記グラフィックオブジェクトのうちの1つ以上に属する、ステップと、
−各グラフィックオブジェクトについて、少なくとも1つの音楽記号候補を、前記グラフィックオブジェクトが前記音楽記号候補の所定のクラスに属する確からしさを代表する割り当て記号コストに関連付けて決定するステップであって、前記決定は、前記グラフィックオブジェクトから抽出されたグラフィック特徴に基づく、ステップと、
−前記音楽的記号候補を構文解析するステップと、
を含み、
ここで、前記構文解析するステップは、
・所定のセットの文法ルールのうちの少なくとも1つを前記音楽記号候補に適用することによって1つ以上のグラフを形成するステップであって、ここで、各グラフは、1セットの少なくとも1つの下位ノードに適用された文法ルールに対応する少なくとも1つの非末端ノードを備え、ここで、各下位ノードは、音楽記号候補に対応する末端ノード、または少なくとも1つの他の下位ノードに適用された文法ルールに対応する非末端ノードのいずれかである、ステップと、
・少なくとも2つの下位ノードに適用された各文法ルールを、前記適用された文法ルールの定義にしたがい、前記少なくとも2つの下位ノードのグラフィックオブジェクト間の空間的関係に基づいて、前記適用された文法ルールの適切性を代表する空間コストに関連付けるステップと、
・各音楽記号候補に関連付けられた前記記号コストおよび各適用された文法ルールに関連付けられた前記空間コストに基づいて、少なくとも1つの前記グラフを、前記手書き音楽符号の最も代表的なグラフとして選択するステップと、
を含む。
本発明は、記号コストおよび空間コストを考慮して最も適切なグラフを選択するので、手書き音楽符号に対して最良の記号表現を見つけることができる点で有利である。一方の記号コストと他方の空間コストとの相補性のおかげで、選択部は、対象の手書き音楽符号に対して最も適切な組み合わせのグラフを検出する。
音楽符号は、一般に、音楽家および作曲家に周知の標準の作曲ルールにしたがって描画される。本発明は、最適な認識効率を達成するために、音楽符号が通常書かれる際にしたがう特定のルールおよび方法を考慮する。
特定の実施形態において、前記形成ステップは、前記セットの文法ルールのそれぞれを前記音楽記号候補に適用することを再帰的に試みるステップを含む。
特定の実施形態において、前記構文解析ステップは、各グラフに対する総コストを、前記グラフの前記音楽記号候補に割り当てられた各記号コストおよび前記グラフにおいて適用された前記少なくとも1つの文法ルールに関連付けられた各空間コストを考慮して、計算するステップを含む。
特定の実施形態において、前記選択ステップは、各グラフについて得られた前記総コストに基づく。
特定の実施形態において、各グラフについての前記総コストは、前記グラフの少なくとも各空間コストおよび記号コストを合計することによって得られる。
特定の実施形態において、前記選択ステップは、前記検出された手書き音楽記号を表す各可能なグラフを決定し、最も低い総コストを有する前記グラフを選出するステップを含む。
特定の実施形態において、前記方法は、前記音楽記号認識装置のディスプレイ上に、前記少なくとも1つの選択されたグラフの前記記号候補を表示するステップを含む。
特定の実施形態において、表示される各記号候補は、前記ディスプレイ上に存在する前記対応のグラフィックオブジェクトに取って代わる。
特定の実施形態において、前記方法は、前記プレセグメント化ステップの前に、前記検出された手書き音楽記号を正規化するステップを含む。前記正規化ステップを前記検出された手書き音楽符号に適用することによって、前記検出された手書き音楽符号をその初期筆記スタイルに対して不変および独立とすることができる。
特定の実施形態において、前記少なくとも1つの音楽記号候補を決定するステップは、ニューラルネットワークによって行われる。ニューラルネットワークなどの分類器の学習能力は、前記決定ステップにおける分類効率を著しく向上することができる。決定部を訓練して、異なる人の異なるスタイルを学習させることができる。
特定の実施形態において、各文法ルールは、適用可能な場合に下記を定義する。
−音楽記号または1グループの音楽記号と少なくとも非末端ノードとの所定の関連付け
−前記関連付けにおいて少なくとも2つの下位ノードがある場合、前記下位ノードに対応する前記グラフィックオブジェクトの相互の空間的関係の関数としての、前記文法ルールの適切性を代表する前記空間コストの値
特定の実施形態において、前記方法は、前記検出された手書き音楽記号を最も代表するグラフとして選択された各グラフに基づいて構文木を生成するステップを含む。
特定の実施形態において、前記音楽記号候補を決定するステップは、前記グラフィックオブジェクトの静的グラフィック特徴および動的グラフィック特徴のうちの少なくとも1つを抽出するステップを含み、前記決定ステップは、前記抽出ステップの結果に基づく。
特定の実施形態において、前記検出ステップにおいて、前記音楽符号認識装置は、前記音楽符号認識装置の入力表面上でユーザによって入力された前記手書き音楽記号を検出する。
特定の実施形態において、本発明にかかる音楽記号を認識するための方法の様々なステップは、コンピュータプログラム命令によって規定される。
したがって、また、本発明は、記録媒体上のコンピュータプログラムを提供する。このコンピュータプログラムは、音楽記号認識装置、より一般にはコンピュータによって実施されるように構成される。このコンピュータプログラムは、上記のように音楽記号を認識するための方法の実施に適合するようにされた命令を備える。
本発明のコンピュータプログラムは、任意のプログラミング言語によって表現でき、ソースコード、オブジェクトコード、もしくはソースコードとオブジェクトコードとの間の任意の中間コード(例えば、部分的にコンパイルされた形態)の形態、または任意の他の適切な形態を取ることができる。
また、本発明は、音楽記号認識装置、より一般にはコンピュータ、によって読み取り可能な記録媒体を提供する。この記録媒体は、上記のようなコンピュータプログラム命令を備える。
上記の記録媒体は、前記コンピュータプログラムを記憶できる任意のエンティティまたはデバイスであり得る。例えば、前記記録媒体は、ROMメモリ(CD−ROMもしくはマイクロ電子回路に実装されたROM)などの記憶手段、または例えばフロッピーディスクもしくはハードディスクなどの磁気記憶手段を備えることができる。
本発明の記録媒体は、電気もしくは光学ケーブルを介して、または電波もしくは任意の他の適切な手段によって伝搬され得る、電気または光学信号などの、伝送可能媒体に対応することができる。本発明にかかるコンピュータプログラムは、特に、インターネットまたは同様のネットワークからダウンロードできる。
あるいは、前記記録媒体は、コンピュータプログラムがロードされる集積回路に対応することができる。前記回路は、本発明の方法を実行するか、または本発明の方法の実行に使用されるように改変される。
また、本発明は、手書き音楽符号に基づいて音楽記号を認識するための音楽記号認識装置を提供する。前記装置は、
−手書き音楽符号を検出するための検出部と、
−前記手書き音楽符号を複数の基本インクセグメントにプレセグメント化するためのプレセグメント化部と、
−前記基本インクセグメントを基本インクセグメント間の空間的関係に基づいてグラフィックオブジェクトにグループ化するためのグループ化部であって、ここで、各基本インクセグメントは、前記グラフィックオブジェクトのうちの1つ以上に属する、グループ化部と、
−各グラフィックオブジェクトについて、少なくとも1つの音楽記号候補を、前記グラフィックオブジェクトが前記音楽記号候補の所定のクラスに属する確からしさを代表する割り当て記号コストに関連付けて決定するための決定部であって、前記決定は、前記グラフィックオブジェクトから抽出されたグラフィック特徴に基づく、決定部と、
−前記音楽的記号候補を構文解析する構文解析部と、
を含み、
ここで、前記構文解析部は、
・所定のセットの文法ルールのうちの少なくとも1つを前記音楽記号候補に適用することによって1つ以上のグラフを形成するための形成部であって、ここで、各グラフは、1セットの少なくとも1つの下位ノードに適用された文法ルールに対応する少なくとも1つの非末端ノードを備え、ここで、各下位ノードは、音楽記号候補に対応する末端ノード、または少なくとも1つの他の下位ノードに適用された文法ルールに対応する非末端ノードのいずれかである、形成部と、
・少なくとも2つの下位ノードに適用された適用文法ルールを、前記適用された文法ルールの定義にしたがい、前記少なくとも2つの下位ノードのグラフィックオブジェクト間の空間的関係に基づいて、前記適用された文法ルールの適切性を代表する空間コストに関連付けるための関連付け部と、
・各音楽記号候補に関連付けられた前記記号コストおよび各適用された文法ルールに関連付けられた前記空間コストに基づいて、少なくとも1つの前記グラフを、前記手書き音楽符号の最も代表的なグラフとして選択するための選択部と、
を含む。
なお、本発明にかかる音楽記号を認識するための方法に関して上記した様々な実施形態は、本発明の音楽記号認識装置と関連して同様に実施できる。さらに、音楽記号を認識するための方法の様々な実施形態に関して上記した利点および記載は、本発明にかかる音楽記号認識装置の様々な実施形態に同様に当てはまる。
特定の実施形態において、前記装置は、入力表面を含む。ここで、前記検出部は、前記入力表面上でユーザによって入力された手書き音楽記号を検出するように構成される。
特定の実施形態において、前記検出部は、ニューラルネットワークである。
本発明の他の特徴および利点は、あくまで非限定な例示を目的として与えられる、以下に記載の好適な実施形態を読む際により明らかとなり、かつ添付の図面からより明らかとなる。
図1は、本発明の特定の実施形態にかかる音楽記号認識装置の外観を示す図である。 図2は、本発明の特定の実施形態にかかる図1の音楽記号認識装置の主要なハードウエア構成要素を示すブロック図である。 図3は、本発明の特定の実施形態にかかる図1の音楽記号認識装置の主要な機能部を示すブロック図である。 図4は、音楽記号認識装置の検出部、プレセグメント化部およびグループ化部が本発明の特定の実施形態にしたがってどのように動作するかを示す図である。 図5は、音楽記号認識装置の検出部、プレセグメント化部およびグループ化部が本発明の特定の実施形態にしたがってどのように動作するかを示す図である。 図6は、音楽記号認識装置の検出部、プレセグメント化部およびグループ化部が本発明の特定の実施形態にしたがってどのように動作するかを示す図である。 図8A〜8Fは、本発明の特定の実施形態にかかる音楽記号認識装置の形成部によって形成される様々なグラフを示す図である。 図9は、本発明の特定の実施形態にかかる音楽記号を認識するための方法の主要なステップを示すフローチャートである。
本発明は、手書き音楽符号の音楽記号への変換に関し、より詳細にはデジタルフォーマットの手書き音楽符号に基づいて音楽記号を認識する方法およびそのような方法を実施するための装置に関する。
上記のように、本発明は、入力デバイス上でユーザによって入力された手書き音楽符号、または後の処理のために電子フォーマット(例えば、電子文書)で予め記憶されているかまたは受け取られた手書き音楽符号に適用可能である。
本明細書において、用語「音楽符号」は、ユーザが音楽を作曲する際に描画し得る任意の種類の符号またはスコアに関する。例えば、音楽符号は、例えば、四分音符(または、「クロチェット」)、八分音符、二分音符(または、「ミニム」)、全音符、キー(ト音記号、ヘ音記号など)、単純拍子または複合拍子、四分休符、変化記号(フラット、シャープまたは付点音符)などを指し得る。各音符のピッチは、譜線(もしあれば)上のその位置に左右され得る。しかし、五線譜の使用は、本発明を実施するために必須ではないことが理解されるべきである。
音楽符号は、一般に音楽家および作曲家に周知の標準の作曲ルールにしたがって描画される。本発明は、最適な認識効率を達成するために、音楽符号が通常書かれる際にしたがう特定のルールおよび方法を考慮する。
以下に、本発明の特定の実施形態を図1〜9を参照して説明する。
図1は、本発明の特定の実施形態にかかる音楽記号認識を行うのに適した例示の音楽記号認識装置2を図示する。この場合、音楽記号認識装置2は、携帯型タッチスクリーンデバイス(例えば、タブレットコンピュータなど)であり、記載を簡単にするために以下では「端末2」と称す。
なお、例示の実施形態は、本明細書においてタブレットコンピュータ上に実装されるとして説明するが、当業者であれば、本明細書に記載の処理に対応する適切なプロセッサおよびメモリを有する装置などの任意のコンピュータのような装置上に実装され得ることを理解する。本発明の音楽記号認識装置は、情報携帯端末(PDA)、携帯電話、ラップトップまたはデスクトップコンピュータなどであってもよい。
本例において、端末2は、ユーザが作曲する際に手書き音楽符号8を入力できるようにするタッチスクリーン4(または、デジタイザ)を含む。タッチスクリーン4は、ユーザによって入力された手書き音楽符号、および本実施形態にしたがって端末2によって行われる音楽記号認識の結果を表示するように動作可能である。
音楽符号入力は、スタイラス6、指などをタッチスクリーン4の表面に当てることによって行うことができる。このタッチスクリーン4は、ユーザがスタイラス6を用いてその上で行う動作をキャプチャすることができる。より詳細は後述するが、スタイラス6とタッチスクリーン4との間の接触は、デジタルインクのストロークを生成する。ユーザによって描画された様々なインクストロークは、対応する音楽記号に変換するために端末2によって処理される。
なお、本発明の音楽記号認識装置は、タッチスクリーン、より一般には音楽符号8を入力するためのユーザ入力インタフェース、を必ずしも含まない。
音楽記号認識装置は、予め電子フォーマット(例えば、電子文書)で記憶された音楽符号を得て、その音楽符号を相当する音楽記号に変換してもよい。あるいは、音楽記号認識は、端末2の外部から電子フォーマットで受け取った音楽符号を処理してもよい。
図2は、端末2の例示のハードウエアアーキテクチャを示す。この例において、端末2は、コンピュータのハードウエア構造を与える。特に、端末2は、コントローラ10(例えば、プロセッサ)、RAMメモリ12、ROMメモリ14、書き換え可能不揮発性メモリ16(例えば、EEPROM型)、ユーザインタフェース18、および端末2が外部デバイスと通信できる(例えば、WiFi技術に基づいて)ようにする通信インタフェース20を備える。
コントローラ10は、端末2のその他の構成要素とバスラインを介して協働する。
端末2の書き換え可能不揮発性メモリ16は、本発明の特定の実施形態にかかる記録媒体を構成する。メモリ16は、本発明の特定の実施形態にかかるコンピュータプログラムPを含む。このコンピュータプログラムは、本発明の特定の実施形態にかかる方法を実施するための命令を備える。この方法の主要なステップ(S2〜S18)を図9のフローチャートを特に参照して詳細に説明する。
メモリ16に記憶されるクラスCLおよびセットGRの文法ルールは、以下に図4〜9を参照してより明らかとなる。
ユーザインタフェース18は、ユーザが手書き音楽符号8を入力できるようにするための入力部18A、および端末8が手書き音楽符号8または本発明の音楽記号認識の結果として得られる対応の音楽記号を表示できるようにする出力部18Bを含む。タッチスクリーン以外の入力および出力部が本発明の範囲内で考えられ得る。
本実施形態において、タッチスクリーン4は、入力表面および表示表面を同時に形成する。入力表面および表示表面がそれぞれに分かれている他の実施形態が考えられ得る(例えば、画面とは別のタッチパッド)。
上記のように、ユーザインタフェース18を含むことは、本発明を行うために必須となるものではない。
図3は、本発明の特定の実施形態にかかるコンピュータプログラムPを実行する際にコントローラ10によって実施される機能部を示す機能図である。
本例において、端末2は、手書き音楽符号8を電子フォーマットで記憶するために使用可能な記憶部24を含む。この目的のために、記憶部24は、1つ以上の手書き音楽符号を含む電子文書を記憶してもよい。記憶部24は、例えば、コントローラ10の制御下に動作するメモリ16によって実装されてもよい。
検出部26は、手書き音楽符号(または、その一部)を検出するように動作可能である。検出される手書き音楽符号は、様々なソースから得られてもよい。検出部26は、ユーザによってユーザインタフェース18を用いて入力された手書き音楽符号を検出してもよい。あるいは、検出部26は、記憶部24から手書き音楽符号8を取り出してもよいし、および/または端末2外から(例えば、通信インタフェース20を用いて)手書き音楽符号8を受け取ってもよい。各手書き音楽符号は、例えば、1セットの(x,y)座標によって表される。譜線は、作曲中のユーザを視覚的に助けるために表示されるのが好ましいが、これは必須ではない。
プレセグメント化部28は、検出された手書き音楽符号を複数の基本インクセグメントにプレセグメント化するように動作可能である。より詳細は後述するが、基本インクセグメント(以下に、インクセグメントとも呼ぶ)は、手書き音楽符号の輪郭の任意の基本部分を定義する。基本インクセグメントは、例えば、前記符号の輪郭上に配置される2つの連続して隣接するセグメント化点によって区切られる。各インクセグメントは、手書き音楽符号またはその一部を表す。生成されたインクセグメントは、後で適切な音楽記号候補を決定するために使用される。
グループ化部30は、インクセグメントをインクセグメント間の空間的関係に基づいてグラフィックオブジェクトにグループ化するように動作可能である。各インクセグメントは、1つ以上のグラフィックオブジェクトに属してもよい。
検出部(または、分類器)32は、グループ化部30によって形成された各グラフィックオブジェクトについて、少なくとも1つの音楽記号候補を割り当て記号コストに関連付けて決定するように動作可能である。検出部32によって割り当てられた各記号コストは、対応するグラフィックオブジェクトがメモリ16に記憶されたクラスCLのうちの決定された音楽記号候補の所定のクラスに属する確からしさを代表する。
この例において、記号コストが高くなるほど、音楽記号候補が対応するグラフィックオブジェクトの良い候補である確率が低くなる。あるいは、クラスが一致する確からしさが高くなるほど高くなる記号スコアを記号コストSCの代わりに使用してもよい。スコアは、関数(−log)によってコストに変換できる。
検出部32によって行われる決定は、記号認識処理を受けたグラフィックオブジェクトから抽出されるグラフィック特徴に基づく。
構文解析部34は、手書き音楽符号をユーザにとって周知の意味を有する適切な音楽記号に変換するために検出部32の出力を処理するように動作可能である。本実施形態において、構文解析部は、下記の3つの部(またはサブ部)を備える。
−形成部36
−関連付け部38
−選択部40
形成部36は、所定セットGRの文法ルール(メモリ16に記憶される)からの少なくとも1つの文法ルールを検出部32によって生成された音楽記号候補に適用することによって1つ以上のグラフを形成するように動作可能である。より詳細は後述するが、これらのグラフのそれぞれは、1セットの少なくとも1つの下位ノードに適用された文法ルールに対応する少なくとも1つの非末端ノードを備える。各文法ルールは、1つ以上の下位ノードに適用されるように定義される。各下位ノードは、音楽記号候補に対応する末端ノード、または少なくとも1つの他の下位ノードに適用された文法ルールに対応する非末端ノードのいずれかである。
末端ノードは、下位を全く有さないが、末端ノードは、グラフにおいて少なくとも1つの下位を有する。
上記のように、文法ルールは、その定義に応じて、1つ以上の下位ノードに適用可能である。関連付け部38は、グラフにおいて少なくとも2つの下位ノードに適用された各文法ルールを、適用された文法ルールの適切性を代表する空間コストに関連付けるように動作可能である。その空間コストは、適用された文法ルールの定義にしたがって、その少なくとも2つの下位ノードのグラフィックオブジェクト間の空間的関係に基づいて決定される。
選択部40は、各音楽記号候補に関連付けられた記号コストおよび各適用された文法ルールに関連付けられた空間コストに基づいて、少なくとも1つのグラフを、処理されている手書き音楽符号を最も代表するグラフとして選択するように動作可能である。
以下に、端末8によって実施される音楽記号を認識するための方法の例示の実施形態の主要なステップS2〜S18を図4〜9を参照して説明する。端末2の上記機能部の動作は、図4〜9に例示される例示の実施形態からより明らかとなる。
この例において、検出部26は、図4に例示するように手書き音楽符号MAを検出する(S2)。この場合においてわかるように、検出された音楽符号MAは、1つのフラット、2つの八分音符および1つの二分音符を連続して含む。これらの音楽符号は、譜線50上のデジタルインクストロークによって表される。
音楽符号MAは、ユーザによってユーザインタフェース18の入力部18Aを用いて入力されるか、記憶部24から取り出されるか、または端末2の外部から直接受け取るか(または、それらの任意の組み合わせ)のいずれでもよい。いずれにせよ、記憶部24は、本発明にかかる音楽記号認識を実施する際に手書き音楽符号または任意の中間もしくは最終データ結果を記憶するために使用できる。
2つの八分音符は、それぞれ黒塗りの卵形符頭、およびその符頭の右側から上を向いた真っ直ぐな符尾(はた)のない符幹から形成される。2つの符幹は、連桁で接続される。二分音符は、白抜きの卵形符頭および符尾のない真っ直ぐな音符符幹で表される。
必要ならば、好適な実施形態において、端末2は、得られたデジタルインクストロークを正規化し、それによりこれらのストロークを初期筆記スタイルに対して不変および独立とするために、オプションの前処理(S4)をデジタルインクストロークに適用する。そのような前処理を適用するかどうかについての決定、適用する場合にはこの前処理の性質についての決定は、例えば、音楽記号認識を行うために必要な品質レベルに左右され得る。
この正規化ステップS4は、とりわけ、下記の変換(または、その任意の組み合わせ)のいずれかを含んでもよい。
−信号センタリングに基づくか、または譜線位置に関して、位置正規化することによって、入力信号の第1の均質化を可能にする
−五線譜インターラインまたは任意の他の基準サイズについてのサイズ正規化
−平滑化アルゴリズム(例えば、Bスプラインまたはベジール曲線フィッテイング)に基づく信号平滑化。これは、例えば、低空間解像度の場合に有用である
−点補間。これは、例えば、低取得解像度の場合に有用である
当業者には明らかであるが、この前処理は、上記に列挙しなかった任意の他の正規化基準に基づいてもよい。
図5に示すように、一旦前処理ステップS4が完了すると、プレセグメント化部28は、手書き音楽符号MAを複数の基本インクセグメントにプレセグメント化することを行う(S6)。そうするために、音楽符号AMのデジタルインクストロークは、基本インクセグメントSG1〜SG8にセグメント化される。これらのインクセグメントSGは、後の音楽記号の認識のために端末2によって処理され得る最小のインクパーツを構成する。
プレセグメント化ステップS6は、ストロークをその構成セグメントに分解するための位置を定義する特定の点の検出に基づく。そのような特定の点は、例えば、2つのインクストローク間の交点、インクストロークの傾きの変化、符号内の特定の角度などに対応してもよい。理解され得るように、手書き音楽符号を基本インクセグメントに分解するために様々な技術が使用され得る。当業者であれば、そのようなプレセグメント化をどのように実施するかがわかるので、この点についてのさらなる詳細は省略する。
本例において、フラット符号は、インクセグメントSG1およびSG2に分解される。さらに、2つの高さ音符は、2つの黒塗りの符頭、2つの対応の符幹およびその間の連桁にそれぞれ対応するインクセグメントSG3〜SG7に分解される。二分音符は、インクセグメントSG8およびSG9に分解される。しかし、この特定の例において、他のインクセグメント化を考えてもよい。
図6に示すように、次いでグループ化部30は、基本インクセグメントSG1〜SG9を、それぞれ少なくとも1つのインクセグメントを含む特定のセットにグループ化する(S8)。各セットは、本例において、GO1〜GO9として参照されるグラフィックオブジェクトGOを形成する。各グラフィックオブジェクトは、この段階で端末2に対して記号的な意味を有さないエンティティを構成する。これらのエンティティは、後で端末2によって処理され、適切な音楽記号に変換される。
この例において、例えば、2つの第1のインクセグメントSG1およびSG2は、フラットを表す第1のグラフィックオブジェクトGO1を形成するようにグループ化される。
上記のように、各インクセグメントSG1〜SG9は、生成されたグラフィックオブジェクトGO1〜GO9のうちの1つ以上に属する。グラフィックオブジェクトGO5は、例えば、グラフィックオブジェクトGO6およびGO7を、2つのインクセグメントSG5およびSG6を接続する連桁とともに含む。しかし、音楽記号を認識するために使用される実施内容に応じて、他の様々なグループ化がなされ得る。
グループ化動作S8は、基本インクセグメント間の空間的関係に基づいて行われる。この特定の例において、グループ化部30は、下記の判断基準のうちの少なくとも1つに基づいて、インクセグメントSG1〜SG9をグラフィックオブジェクトGO1〜GO9にグループ化する。
−インクセグメント間の距離
−インクセグメントの相対的な水平および/または垂直位置
−インクセグメント間で異なり得る任意の関連インク性質(例えば、サイズ)
任意の他の適切な判断基準を各特定の場合における必要性に応じて適用してもよいことは言うまでもない。
ステップS8の完了後、検出部(または、分類器)32は、グループ化部30によって生成された各グラフィックオブジェクトGO1〜GO9について、少なくとも1つの音楽記号候補MSCを割り当て記号コストSCに関連付けて決定する(S10)。決定ステップS10の結果は、図7に示すように、表の形態で表すことができる。この表は、前記グラフィックオブジェクトGO1〜GO9のそれぞれについて、検出部32によって決定された音楽記号候補MSCおよびそれぞれの割り当て記号コストSCを列挙する。
各割り当て記号コストSCは、それぞれのグラフィックオブジェクトがメモリ16に記憶されたクラスCLのうちの所定のクラスに属する確からしさを代表する。記号候補リストは、あるグラフィックオブジェクトが入力として与えられた、最も確からしいクラスを考慮して構築される。
この例において、コストSCが低くなるほど、グラフィックオブジェクトが所定のクラスに対応する確からしさが高くなる。あるいは、クラスが一致する確からしさが高くなるにつれ高くなる記号スコアを記号コストSCの代わりに使用してもよい。上記のように、スコアは、関数(−log)によってコストに変換できる。
プログラマは、クラスを生成または削除し、その定義を改変して各特定の場合の要件を満たすことができることは言うまでもない。
クラスは、少なくとも1つのグラフィック特徴判断基準に関して、特定の音楽記号を描画する1つまたは様々な方法を規定する。その結果、検出部32は、グラフィックオブジェクトのグラフィック特徴に基づいて、所定のクラスから音楽記号を認識することを学習できる。
クラスは、検出部32によって認識可能な音楽記号(例えば、符幹、黒符頭、白符頭、フラットサインなど)のうちの1つに対応する。記号候補は、特定のグラフィックオブジェクトに対するクラスの例である。
検出部32は、上記決定ステップS10を、グラフィックオブジェクトGO1〜GO9のそれぞれから抽出されたグラフィック(または、幾何学的)特徴に基づいて行う。検出部32は、各グラフィックオブジェクトのグラフィック特徴と所与のセットCLのクラスとを比較し、一致するものを探す。所与のグラフィックオブジェクトのグラフィック特徴が特定のクラスの定義と一致(すくなくともある程度)すれば、検出部32は、その所与のグラフィックオブジェクトは、この特定のクラスに属する可能性があると推定し、次いでそのクラスの記号候補がそのグラフィックオブジェクトの候補リストに追加される。
決定ステップS10は、例えば、グラフィックオブジェクトの所定の静的グラフィック特徴、グラフィックオブジェクトの所定の動的グラフィック特徴、またはその両方に基づくことができる。
特定の実施形態において、音楽記号候補の決定ステップS10は、上記グラフィックオブジェクトGOの静的グラフィック特徴および動的グラフィック特徴のうちの少なくとも1つを抽出するステップを含む。この決定ステップS10は、その抽出ステップの結果に基づく。
動的情報は、例えば、スタイラス6の軌跡から抽出でき、グラフィックオブジェクトを形成するインクストロークの位置、方向および曲率などの情報に基づく。他方、静的情報は、例えば、インクのビットマップ表現から演算でき、通常、射影および/またはヒストグラムに基づく。
図7に示す結果からわかるように、1つまたは数個の音楽記号候補が各グラフィックオブジェクトについて決定され得る。グラフィックオブジェクトGO2について、例えば、音楽記号候補は、明らかに不適切である。結果として、検出部32によって割り当てられた対応の記号コストSC21は、非常に高く、音楽記号候補MSC21がグラフィックオブジェクトGO2の良好な候補である確率が低いことを意味する。
ある場合に、検出部32は、特定のグラフィックオブジェクトが属し得るクラスを見つけられず、それぞれの音楽記号候補が出力されないことがあり得る。これは、例えば、グラフィックオブジェクトがグループ化部30によって良好に定義されなかった場合に起こり得る。
特定の実施形態において、検出部32は、分類器である。非限定的な例示の目的で、検出部32は、下記の手段の少なくとも1つに基づいてもよい。
−コホネンニューラルネットワーク
−サポートベクターマシン
−カーネル法
−隠れマルコフモデル
−ニューラルネットワーク
−他のパターン認識パラダイム
オンラインのペンベースの入力機構から得られる音楽記号を識別するための、例えば、ニューラルネットワーク分類器の使用は、当業者に周知されているので、本明細書においては詳細を省略する。より具体的には、音楽記号認識に対するニューラルネットワークに基づく(ANN)アプローチは、過去にすでに考えられてきた。ANNは、訓練プロセスを介してパターンを認識することを「学習」しなければならないパターン認識の統計的方法として使用できる。特定の実施形態において、ネットワークノード間の「重み」に関して表現される、ANNのパラメータは、訓練段階中に調整される。一旦訓練されると、ネットワークは、新たな音楽符号が与えられると、以前にそれと完全に一致するものに出会っていなくても、その新たな音楽符号を処理および分類することが可能である。
これらのANNシステムの学習能力は、ステップS10における分類効率を著しく向上できる。検出部32は、異なる人の異なるスタイルを学習するように訓練できる。
ANNの広く使用されている形態である多層パーセプトロン(MLP)を本実施形態における検出部34として使用して、決定ステップS10を行うことができる。
特定の実施形態において、決定ステップS10の段階において、検出部32によって提示される音楽記号候補のうちのいくつかは、その記号コストが所定の閾値より高いか、またはその反対に低い場合に、直ちに棄却または有効とすることができる。特定の実施形態において、検出部32は、非常に低い確率を有する(例えば、所定の閾値より高い記号コストを有する)音楽記号候補を切り捨てるように構成される。切り捨ては、処理対象のデータの量を低減し、速度および資源使用効率を増加させることができる。音楽記号候補を保持または棄却することを可能にするこの閾値は、例えば、特定の認識処理について達成したい認識の関連性レベルに基づいて、ユーザによって構成されてもよいことが理解されるべきである。
次いで、構文解析部34は、音楽記号候補を構文解析して(S12)、各グラフィックオブジェクトに対して最も適切な音楽記号候補を決定する。この例において、この構文解析動作S12は、さらに以下に記載のステップS14、S16およびS18を含む。
より詳細には、形成部36は、所定セットGRの文法ルールのうちの少なくとも1つを、検出部32によって予め決定された音楽記号候補に適用することによって、1つ以上のグラフを形成する(S14)。
図8A〜8Eは、本場合において、形成部36によって形成された(S14)例示のグラフGR1〜GR9を示す。
上記のように、グラフGR1〜GR9のそれぞれは、1セットの少なくとも1つの下位ノードに適用される文法ルールに対応する少なくとも1つの非末端ノードを備える。各下位ノードは、検出部32によって予め決定された音楽記号候補のうちの1つに対応する末端ノード(すなわち、下位を有さないノード)、または少なくとも1つの他の下位ノードに適用された文法ルール(セットGRのうちの文法ルール)に対応する非末端ノード(すなわち、少なくとも1つの下位ノードを有するノード)のいずれかである。
図8A〜8Eにおける例示のグラフからわかるように、文法ルールは、その定義に応じて、1つの下位ノードまたは複数の下位ノードのいずれかに適用可能であり得る。
本実施形態において、形成部36は、メモリ16に記憶された所定のセットGRのうちの各文法ルールを、検出部32によって予め得られた音楽記号候補MSCに適用しようとする。
特定の実施形態において、形成部36は、所定のセットGRの各文法ルールを各音楽記号候補に適用することを再帰的に試みる。上記のように、各文法ルールは、1つまたは数個の下位ノードに適用できる。特定の実施形態において、形成部36は、各文法ルールの定義に規定されるように、その文法ルールを複数の下位ノードに適用しようとする。
特定の文法ルールは、特定のセットの少なくとも1つの音楽記号候補に適用可能であってもよいし、適用可能でなくてもよい。適用可能な場合、形成部36は、その文法ルールの定義にしたがってグラフを出力する。適用可能でなければ、グラフは、出力されない。
特定の実施形態において、ステップS14において適用される各文法ルールは、特定の音楽記号または1グループの音楽記号と少なくとも非末端ノードとの所定の関連付けを定義する。
上記のように、形成部36は、少なくとも1つの文法ルールを検出部32によって予め決定された音楽記号候補に適用することによって1つ以上のグラフを形成する(S14)。形成部36がグラフを構築する方法は、各場合に応じて変化し得るし、プログラマまたはユーザによって適宜改変され得る。図8A〜8Eは、非限定的な例示の目的で提供されるのみである。実施例を説明するために、わずかではあるが可能なグラフを図示する。しかし、この特定の例において、本発明の原理に基づいて他のグラフが形成され得ることが理解されるべきである。
図8Aに示すように、形成部36は、「識別」ルールをMSC11に適用することによってグラフGR1を生成し、同じ識別ルールをMSC12に適用することによって同じやり方でグラフGR2を生成する。グラフGR1は、この場合に適用される識別ルールに対応する非末端ノードND1、およびこの場合において音楽記号候補MSC11に対応する末端ノードである1つの下位ノードによって形成される。同様に、非端末ND2および1つの末端ノードDN21によってグラフGR2が形成される。
この実施形態において、1つの下位ノードに適用するだけの識別ルールによっては、音楽記号候補の関連付けは行われない。識別ルールは、特定の音楽記号候補をそれ自体で意味のあるエンティティとして識別する。
図8Bに示すように、形成部36は、さらに「変化」ルールをMSC12およびMSC32に適用することによってグラフGR3を生成し、変化ルールをMSC12およびMSC31に適用することによって同じやり方でグラフGR4を生成する。グラフGR3は、この場合に適用される変化ルールに対応する非末端ノードND3、およびこの場合にMSC12およびMSC32にそれぞれ対応する2つの末端ノードである2つの下位ノードによって形成される。同様に、非末端ノードND4ならびに2つの下位末端ノードDN41およびDN42によってグラフGR4が形成される。
本例において、変化ルールは、フラットなどの変化を音符に関連付けるように設計される。変化ルールの定義によると、変化は、変化対象の音符の前に位置しなければならない。
さらに、関連付け部38は、少なくとも2つの下位ノードに適用された各文法ルールを、適用された文法ルールにしたがい、その少なくとも2つの下位ノードのグラフィックオブジェクト間の空間的関係に基づいて、適用された文法ルールの適切性を代表する空間コストPCに関連付ける(S16)。
この特定の例において、関連付け部38は、下記の判断基準のうちの少なくとも1つに基づいて空間コストPCを決定した。
−グラフィックオブジェクト間の距離
−グラフィックオブジェクトの相対的な水平および/または垂直位置
−インクセグメントどうしを異ならせ得る任意の関連インク性質(例えば、サイズ)
任意の他の適切な判断基準を、各特定の場合の必要性に応じて、適用してもよいことは言うまでもない。
形成部36および関連付け部38は、2つの別個の機能部、または形成ステップS14および関連付けステップS16を行うように動作可能な1つの同じ機能部のいずれかとしてみなすことができる。形成および関連付けステップS14、S16は、任意の適切な順番で行うことができる。例えば、空間コストPCは、グラフが形成されたら直ちに計算され、割り当てられる。あるいは、空間コストPCは、予め形成された様々なグラフに対して同じ段階で計算され得る。
図8Aからわかるように、識別ルールは、空間コストPCが関連付け部36によってグラフGR1およびGR2に割り当てられないように、1つの下位末端ノードだけに適用するように定義される。
しかし、図8Bに示すように、関連付け部38は、空間コストPC1およびPC2を決定し、グラフGR3およびGR4をそれぞれ空間コストPC3およびPC4に関連付ける(S16)。
特定の実施形態において、各文法ルールは、適用可能な場合に、下記を定義する。
−音楽記号または1グループの音楽記号の少なくとも非末端ノードとの所定の関連付け
−その関連付けにおいて少なくとも2つの下位ノードが存在するならば、その下位ノードに対応するグラフィックオブジェクトの相互の空間的関係の関数として、その文法ルールの適切性を代表する空間コストの値
特定の実施形態において、空間コストは、文法ルール内でグラフィックオブジェクトを隔てている距離から推定される。例えば、図10に示すように、符幹ルールのコスト関数は、符幹と符頭との間の水平間隔dxおよび符幹の底部と符頭の中央との間の垂直並びの(alignment)差dyに基づく。この場合、空間コストPCは、下記の式に基づいて計算される。
コスト_符幹ルール=f(dx)+f(dy)
図8Cに示すように、また、形成部36は、グラフGR5およびGR6を形成する(S14)。グラフGR5は、「符幹」ルールを2つの下位ノードに適用することによって形成される。すなわち、
−MSC12およびMSC32に適応された変化ルールに対応するグラフGR3の非末端ノードND3
−音楽記号候補MSC41に対応する末端ノードDN51
言い換えると、グラフGR5における符幹ルールは、グラフGR3において適用された変化ルールおよびMSC41に適用される。本場合に、符幹ルールは、符頭を符幹に関連付けて、その関連付けを音符として識別するように定義される。
加えて、関連付け部38は、空間コストPC5をグラフGR5の符幹ルール(非末端ノードND5)に関連付ける(S16)。
グラフGR6は、符幹ルールをグラフGR4の非末端ノードND4およびMSC41に対応する下位の末端ノードDN61に適応することによって同様の方法で形成される。空間コストPC6は、関連付け部38によってグラフGR6における非末端ノードND6に割り当てられる(S16)。
上記の例からわかるように、形成部36は、音楽記号候補から様々なグラフを構築し、それらの間の最も適切な関連付けを文法ルールの利用可能なセットGRにしたがって行うように動作可能である。
図8Dに示すように、本例において、形成部は、「連桁開始」ルールをグラフGR6、およびグラフGR8の非末端ノードに適用することによってグラフGR7を形成する(S14)。グラフGR8は、「連桁終了」ルールをMSC51、およびグラフGR9の非末端ノードに適用することによって形成される。グラフGR9は、黒塗りの符頭および上向きの符幹から構成されるノードを識別するために、符幹ルールをMSC71およびMSC61に適用することによって形成される。グラフGR8の連桁開始ルールおよび連桁終了ルールは、2つの音符を接続する連桁としてMSC51を認識することがわかる。
空間コストPC7、PC8およびPC9が、適宜、関連付け部38によってグラフGR7、GR8およびGR9のそれぞれに割り当てられる(S16)。
なおさらに、図8Eに示すように、形成部36は、符幹ルールをMSC81およびMSC91に適用することによってグラフGR10を形成し、符幹ルールをMSC82およびMSC91に適用することによってグラフGR11を形成する。空間コストPC10およびPC11が関連付け部38によってグラフGR10およびGR11にそれぞれ関連付けられる(すなわち、対応する文法ルールを用いて関連付けられる)(S16)。
ステップS18において、選択部40は、各音楽記号候補に関連づけられた記号コストおよび各適用された文法ルールに関連付けられた空間コストに基づいて、形成部36によって形成される少なくとも1つのグラフを、手書き音楽符号MAを最も代表するグラフとして選択する(S18)。
図8Fに示すように、本例において、形成部36は、「構文木」とも呼ばれる完全なグラフGR12を形成する(S14)。完全なグラフGR12は、図4に示す手書き音楽符号MA全体を表すのでそう呼ばれる。グラフGR12は、「水平ペア」ルールを上記グラフGR7およびGR10に適用することによって形成される。水平ペアルールによって形成される非末端ノードは、関連付け部38によって空間コストPC12に関連付けられる。
この例において、選択部40は、グラフGR12を、手書き音楽符号MAを最も代表するグラフとして選択する(S18)。この選択は、下記に基づいて行われる。
−グラフGR12の各音楽記号候補に関連付けられた記号コストSC、すなわち、SC12、SC31、SC41、SC51、SC71、SC61、SC81およびSC91
−グラフGR12を形成するために適用された各文法ルールに関連付けられた空間コストPC、すなわち、PC4、PC6〜PC10およびPC12
選択部40が最も適切なグラフを選択するように最終の構文木を生成することは、好ましいが必須ではない。選択部40は、手書き音楽符号MAの記号バージョンを組み合わせにより表す複数のより小さなグラフを選択してもよい。
本発明の利点は、記号コストおよび空間コストを考慮して最も適切なグラフを選択するので、手書き音楽符号に対して最も良好な記号表現を見つけることができることである。一方の記号コストと他方の空間コストとの相補性のおかげで、選択部40は、対象の手書き音楽符号に最も適切なグラフの組み合わせを検出する。
特定の実施形態において、選択部40は、形成部36によって形成された各グラフについて(またはおそらくは、上記のように切り捨てが行われる場合の、形成部36によって維持される各グラフについて)、これらのグラフの音楽記号候補MSCに割り当てられた各記号コストSCおよびそのグラフにおいて適用された文法ルールに関連付けられた各空間コストPC(もしあれば)を考慮に入れた総コストTCを計算する。
好適な実施形態において、選択部40は、各グラフに対して得られた総コストTCに基づいて最も代表的なグラフを選択する(S18)。
特定の実施形態において、各グラフに対する総コストTCは、そのグラフの少なくとも各空間コストPCおよび記号コストSCを合計することによって得られる。例えば、グラフ12の総コストTC12は、下記のように計算することができる。
TC12=TSC12+TPC12
ここで、TSC12(GR12に対する総記号コスト)およびTPC12(GR12に対する総空間コスト)は、下記の通りである。
TSC12=SC12+SC31+SC41+SC51+SC61+SC71+SC81+SC91
TPC12=PC4+PC6+PC7+PC8+PC9+PC10+PC12
上記の例において、総コストは、重みづけをすることなく、各記号コストおよび空間コストを合計することによって計算される(すなわち、すべての重みの合計が1に等しい)。変形例において、この合計の各コストは、総コストTC12の計算において、多少の重要度を与えるように適宜重みづけできる。重み係数は、各状況に対して認識システムを最適化するようにユーザまたはプログラマによって改変できる。
特定の実施形態において、選択部40は、検出された手書き音楽符号を表す各可能なグラフを決定し、最も低い総コストを有する1つ以上のグラフを選択する。上記の例に戻ると、グラフGR12がこの特定の実施形態にしたがって選択部40によって選択される。なぜなら、グラフGR12は、他の形成された(または、維持された)グラフの総コストと比較して最も低い総コストTC12を有するからである。
特定の実施形態において、上記方法は、選択部40によって選択されたグラフに含まれる1つ以上の記号候補を上記端末2によって表示させるステップをさらに含む。例えば、この選択の結果は、図2に示す出力部18B(例えば、図1に示すタッチスクリーン4)上に、端末2によって適切な順番で表示される。
選択されたグラフを表示する様々な方法が本発明において考えられ得る。特定の実装例において、表示される各記号候補は、ディスプレイ上に存在する対応のグラフィックオブジェクトに取って代わる。その結果、ユーザは、所与の手書き音楽符号が予め描画された位置に、端末2によって認識された対応の音楽記号を見ることができる。
好ましくは、音楽記号認識装置は、選択された音楽記号候補をリアルタイム(または、ほぼリアルタイム)で表示して、ユーザに、ユーザの手書きを適切な標準化された音楽記号に即時に変換するような能力を有し、そのように構成される。
好ましくは、選択された音楽記号は、所定の設定パラメータ(フォントサイズ、色など)にしたがって表示される。
特定の実施形態において、また、選択部40は、統計的言語モデルを使用して、最も適切なグラフを選択する。言語モデルは、事前の統計的知識に基づいて音楽記号シーケンスの確率を決定可能にする。この言語モデルは、例えば、ユーザ入力履歴、および/または音楽スコアの大きなデータベースから推定される、許可または不許可にされる言語の関連付けを定義する1セットのルールに基づいて構築できる。特定の実施形態において、選択部40は、少なくとも2つの音楽記号候補に適用された1つ以上の文法ルールに対して言語コストLCを計算する。言語モデルが使用される場合、選択部40は、記号および空間コストに加えて、各計算された言語モデルLCを考慮するように構成される。言語モデルを使用することによって、本発明の音楽記号認識処理の効率をさらに向上することが可能になる。

Claims (19)

  1. 音楽記号を手書き音楽符号に基づいて認識するための音楽記号認識装置によって実施される方法であって、前記方法は、
    −手書き音楽符号を検出するステップと、
    −前記手書き音楽符号を複数の基本インクセグメントにプレセグメント化するステップと、
    −前記基本インクセグメントを基本インクセグメント間の空間的関係に基づいてグラフィックオブジェクトにグループ化するステップであって、ここで、各基本インクセグメントは、前記グラフィックオブジェクトのうちの1つ以上に属する、ステップと、
    −各グラフィックオブジェクトについて、少なくとも1つの音楽記号候補を、前記グラフィックオブジェクトが前記音楽記号候補の所定のクラスに属する確からしさを代表する割り当て記号コストに関連付けて決定するステップであって、前記決定は、前記グラフィックオブジェクトから抽出されたグラフィック特徴に基づく、ステップと、
    −前記音楽的記号候補を構文解析するステップと、
    を含み、
    ここで、前記構文解析するステップは、
    ・所定のセットの文法ルールのうちの少なくとも1つを前記音楽記号候補に適用することによって1つ以上のグラフを形成するステップであって、ここで、各グラフは、1セットの少なくとも1つの下位ノードに適用された文法ルールに対応する少なくとも1つの非末端ノードを備え、ここで、各下位ノードは、音楽記号候補に対応する末端ノード、または少なくとも1つの他の下位ノードに適用された文法ルールに対応する非末端ノードのいずれかである、ステップと、
    ・少なくとも2つの下位ノードに適用された各文法ルールを、前記適用された文法ルールの定義にしたがい、前記少なくとも2つの下位ノードのグラフィックオブジェクト間の空間的関係に基づいて、前記適用された文法ルールの適切性を代表する空間コストに関連付けるステップと、
    ・各音楽記号候補に関連付けられた前記記号コストおよび各適用された文法ルールに関連付けられた前記空間コストに基づいて、少なくとも1つの前記グラフを、前記手書き音楽符号の最も代表的なグラフとして選択するステップと、
    を含む、方法。
  2. 前記形成ステップは、前記セットの文法ルールのそれぞれを前記音楽記号候補に適用することを再帰的に試みるステップを含む、請求項1に記載の方法。
  3. 前記構文解析ステップは、各グラフに対する総コストを、前記グラフの前記音楽記号候補に割り当てられた各記号コストおよび前記グラフにおいて適用された前記少なくとも1つの文法ルールに関連付けられた各空間コストを考慮して、計算するステップを含む、請求項1または2に記載の方法。
  4. 前記選択ステップは、各グラフについて得られた前記総コストに基づく、請求項3に記載の方法。
  5. 各グラフについての前記総コストは、前記グラフの少なくとも各空間コストおよび記号コストを合計することによって得られる、請求項3または4に記載の方法。
  6. 前記選択ステップは、前記検出された手書き音楽記号を表す各可能なグラフを決定し、最も低い総コストを有する前記グラフを選出するステップを含む、請求項4または5に記載の方法。
  7. 前記音楽記号認識装置のディスプレイ上に、前記少なくとも1つの選択されたグラフの前記記号候補を表示するステップを含む、請求項1〜6のうちのいずれか1つに記載の方法。
  8. 表示される各記号候補は、前記ディスプレイ上に存在する前記対応のグラフィックオブジェクトに取って代わる、請求項7に記載の方法。
  9. 前記プレセグメント化ステップの前に、前記検出された手書き音楽記号を正規化するステップを含む、請求項1〜8のうちのいずれか1つに記載の方法。
  10. 前記少なくとも1つの音楽記号候補を決定するステップは、ニューラルネットワークによって行われる、請求項1〜9のうちのいずれか1つに記載の方法。
  11. 各文法ルールは、適用可能な場合に、
    −音楽記号または1グループの音楽記号と少なくとも非末端ノードとの所定の関連付け
    −前記関連付けにおいて少なくとも2つの下位ノードがある場合、前記下位ノードに対応する前記グラフィックオブジェクトの相互の空間的関係の関数としての、前記文法ルールの適切性を代表する前記空間コストの値
    を定義する、請求項1〜10のうちのいずれか1つに記載の方法。
  12. 前記検出された手書き音楽記号を最も代表するグラフとして選択された各グラフに基づいて構文木を生成するステップを含む、請求項1〜11のうちのいずれか1つに記載の方法。
  13. 前記音楽記号候補を決定するステップは、前記グラフィックオブジェクトの静的グラフィック特徴および動的グラフィック特徴のうちの少なくとも1つを抽出するステップを含み、前記決定ステップは、前記抽出ステップの結果に基づく、請求項1〜12のうちのいずれか1つに記載の方法。
  14. 前記検出ステップにおいて、前記音楽符号認識装置は、前記音楽符号認識装置の入力表面上でユーザによって入力された前記手書き音楽記号を検出する、請求項1〜13のうちのいずれか1つに記載の方法。
  15. コンピュータプログラムであって、前記コンピュータプログラムがコンピュータ上で実行される場合に、請求項1〜14のうちのいずれか1つに記載の方法を実施するための命令を備えるコンピュータプログラム。
  16. コンピュータによって読み取り可能な記録媒体であって、請求項1〜14のうちのいずれか1つに記載の方法を実施するための命令を備えるコンピュータプログラムを記憶する記録媒体。
  17. 手書き音楽符号に基づいて音楽記号を認識するための音楽記号認識装置であって、前記装置は、
    −手書き音楽符号を検出するための検出部と、
    −前記手書き音楽符号を複数の基本インクセグメントにプレセグメント化するためのプレセグメント化部と、
    −前記基本インクセグメントを基本インクセグメント間の空間的関係に基づいてグラフィックオブジェクトにグループ化するためのグループ化部であって、ここで、各基本インクセグメントは、前記グラフィックオブジェクトのうちの1つ以上に属する、グループ化部と、
    −各グラフィックオブジェクトについて、少なくとも1つの音楽記号候補を、前記グラフィックオブジェクトが前記音楽記号候補の所定のクラスに属する確からしさを代表する割り当て記号コストに関連付けて決定するための決定部であって、前記決定は、前記グラフィックオブジェクトから抽出されたグラフィック特徴に基づく、決定部と、
    −前記音楽的記号候補を構文解析する構文解析部と、
    を含み、
    ここで、前記構文解析部は、
    ・所定のセットの文法ルールのうちの少なくとも1つを前記音楽記号候補に適用することによって1つ以上のグラフを形成するための形成部であって、ここで、各グラフは、1セットの少なくとも1つの下位ノードに適用された文法ルールに対応する少なくとも1つの非末端ノードを備え、ここで、各下位ノードは、音楽記号候補に対応する末端ノード、または少なくとも1つの他の下位ノードに適用された文法ルールに対応する非末端ノードのいずれかである、形成部と、
    ・少なくとも2つの下位ノードに適用された適用文法ルールを、前記適用された文法ルールの定義にしたがい、前記少なくとも2つの下位ノードのグラフィックオブジェクト間の空間的関係に基づいて、前記適用された文法ルールの適切性を代表する空間コストに関連付けるための関連付け部と、
    ・各音楽記号候補に関連付けられた前記記号コストおよび各適用された文法ルールに関連付けられた前記空間コストに基づいて、少なくとも1つの前記グラフを、前記手書き音楽符号の最も代表的なグラフとして選択するための選択部と、
    を含む、音楽記号認識装置。
  18. 入力表面であって、ここで、前記検出部は、前記入力表面上でユーザによって入力された手書き音楽記号を検出するように構成される、入力表面を含む、請求項17に記載の装置。
  19. 前記検出部は、ニューラルネットワークである、請求項17または18である装置。
JP2016551230A 2014-02-10 2015-01-26 音楽記号を認識するための方法および装置 Active JP6506770B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/176,800 2014-02-10
US14/176,800 US9424823B2 (en) 2014-02-10 2014-02-10 Method and apparatus for recognising music symbols
PCT/EP2015/051512 WO2015117855A1 (en) 2014-02-10 2015-01-26 Method and apparatus for recognising music symbols

Publications (2)

Publication Number Publication Date
JP2017511917A true JP2017511917A (ja) 2017-04-27
JP6506770B2 JP6506770B2 (ja) 2019-04-24

Family

ID=52396703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016551230A Active JP6506770B2 (ja) 2014-02-10 2015-01-26 音楽記号を認識するための方法および装置

Country Status (6)

Country Link
US (2) US9424823B2 (ja)
EP (1) EP3105709A1 (ja)
JP (1) JP6506770B2 (ja)
KR (1) KR102293538B1 (ja)
CN (1) CN106164932B (ja)
WO (1) WO2015117855A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10019995B1 (en) 2011-03-01 2018-07-10 Alice J. Stiebel Methods and systems for language learning based on a series of pitch patterns
US11062615B1 (en) 2011-03-01 2021-07-13 Intelligibility Training LLC Methods and systems for remote language learning in a pandemic-aware world
US9424823B2 (en) * 2014-02-10 2016-08-23 Myscript Method and apparatus for recognising music symbols
WO2015141260A1 (ja) * 2014-03-17 2015-09-24 株式会社河合楽器製作所 手書き音楽記号認識装置およびプログラム
US10303350B2 (en) * 2015-05-20 2019-05-28 Hubin Jiang Systems and methods for generating online documents
CN105607855A (zh) * 2015-12-22 2016-05-25 曾旭辉 一种手写音符输入系统及其输入方法
WO2017195106A1 (en) * 2016-05-09 2017-11-16 Alon Shacham Method and system for writing and editing common music notation
US10146429B2 (en) 2016-06-10 2018-12-04 Apple Inc. Character recognition method, apparatus and device
CN106097830B (zh) * 2016-08-17 2018-12-07 广州视睿电子科技有限公司 一种乐谱识别方法及装置
US11948543B1 (en) * 2022-12-12 2024-04-02 Muse Cy Limited Computer-implemented method and system for editing musical score

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0457183A (ja) * 1990-06-26 1992-02-24 Nec Home Electron Ltd 楽譜認識方式

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR809810A (fr) 1933-12-20 1937-03-10 Nototyp Rundstatler G M B H Machine à écrire pour notes de musique
US5146833A (en) 1987-04-30 1992-09-15 Lui Philip Y F Computerized music data system and input/out devices using related rhythm coding
TW250558B (en) * 1993-10-20 1995-07-01 Yamaha Corp Sheet music recognition device
DE69533479T2 (de) * 1994-07-01 2005-09-22 Palm Computing, Inc., Los Altos Zeichensatz mit zeichen aus mehreren strichen und handschrifterkennungssystem
US7098392B2 (en) * 1996-07-10 2006-08-29 Sitrick David H Electronic image visualization system and communication methodologies
US6201174B1 (en) 1998-12-11 2001-03-13 Sunhawk.Com Corporation Method and system for improved tablature notation in digital music scores
US6348648B1 (en) 1999-11-23 2002-02-19 Harry Connick, Jr. System and method for coordinating music display among players in an orchestra
WO2001067306A1 (en) 2000-03-08 2001-09-13 Lyrrus Inc. Doing Business As G- Vox On-line notation system
US6538187B2 (en) 2001-01-05 2003-03-25 International Business Machines Corporation Method and system for writing common music notation (CMN) using a digital pen
US7183476B2 (en) 2004-03-18 2007-02-27 Swingle Margaret J Portable electronic music score device for transporting, storing displaying, and annotating music scores
US7432432B2 (en) 2004-09-21 2008-10-07 Microsoft Corporation System and method for recognizing handwritten music notations
FR2880709B1 (fr) 2005-01-11 2014-04-25 Vision Objects Procede de recherche, reconnaissance et localisation dans l'encre, dispositif, programme et langage correspondants
US7985912B2 (en) 2006-06-30 2011-07-26 Avid Technology Europe Limited Dynamically generating musical parts from musical score
US7983478B2 (en) * 2007-08-10 2011-07-19 Microsoft Corporation Hidden markov model based handwriting/calligraphy generation
WO2011088052A1 (en) * 2010-01-12 2011-07-21 Noteflight,Llc Interactive music notation layout and editing system
US8445766B2 (en) 2010-02-25 2013-05-21 Qualcomm Incorporated Electronic display of sheet music
KR101206351B1 (ko) * 2010-12-07 2012-11-29 한국기술교육대학교 산학협력단 악보인식시스템 및 이를 이용한 악보인식방법
US9465985B2 (en) * 2013-06-09 2016-10-11 Apple Inc. Managing real-time handwriting recognition
US9424823B2 (en) * 2014-02-10 2016-08-23 Myscript Method and apparatus for recognising music symbols
US9395911B2 (en) * 2014-03-28 2016-07-19 Lenovo (Singapore) Pte. Ltd. Computer input using hand drawn symbols
US9652678B2 (en) * 2014-05-23 2017-05-16 Samsung Electronics Co., Ltd. Method and device for reproducing content
US10528249B2 (en) * 2014-05-23 2020-01-07 Samsung Electronics Co., Ltd. Method and device for reproducing partial handwritten content
WO2015200228A1 (en) * 2014-06-24 2015-12-30 Apple Inc. Character recognition on a computing device
US9552741B2 (en) * 2014-08-09 2017-01-24 Quantz Company, Llc Systems and methods for quantifying a sound into dynamic pitch-based graphs

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0457183A (ja) * 1990-06-26 1992-02-24 Nec Home Electron Ltd 楽譜認識方式

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NG, KIA: "Music Manuscript Tracing", LECTURE NOTES IN COMPUTER SCIENCE, vol. vol.2390, JPN6019006434, 7 September 2001 (2001-09-07), DE, pages 330 - 342 *

Also Published As

Publication number Publication date
JP6506770B2 (ja) 2019-04-24
KR102293538B1 (ko) 2021-08-25
WO2015117855A1 (en) 2015-08-13
CN106164932A (zh) 2016-11-23
US20160322038A1 (en) 2016-11-03
CN106164932B (zh) 2019-07-12
US9711117B2 (en) 2017-07-18
US20150228259A1 (en) 2015-08-13
KR20160122231A (ko) 2016-10-21
US9424823B2 (en) 2016-08-23
EP3105709A1 (en) 2016-12-21

Similar Documents

Publication Publication Date Title
JP6506770B2 (ja) 音楽記号を認識するための方法および装置
US11768974B2 (en) Building information model (BIM) element extraction from floor plan drawings using machine learning
JP5071914B2 (ja) 認識グラフ
TWI475406B (zh) 取決於上下文之輸入方法
US10133965B2 (en) Method for text recognition and computer program product
US20180300542A1 (en) Drawing emojis for insertion into electronic text-based messages
US8620084B2 (en) Shape recognition using partial shapes
JP5832980B2 (ja) 手書き入力支援装置、方法およびプログラム
KR20160101683A (ko) 공식 입력 방법 및 장치
US7702145B2 (en) Adapting a neural network for individual style
US20140184610A1 (en) Shaping device and shaping method
US11687618B2 (en) System and method for processing text handwriting in a free handwriting mode
CN114365075A (zh) 用于选择图形对象的方法和对应装置
CN113711232A (zh) 用于着墨应用的对象检测和分割
JP5694236B2 (ja) 文書検索装置、方法およびプログラム
Costagliola et al. Recognition and autocompletion of partially drawn symbols by using polar histograms as spatial relation descriptors
KR20220038477A (ko) 텍스트 라인 추출
JP2012043385A (ja) 文字認識装置および文字認識方法
JP2023043910A (ja) 文字列抽出装置、文字列抽出方法、および文字列抽出プログラム
Kasem et al. Advancements and Challenges in Arabic Optical Character Recognition: A Comprehensive Survey
JP2012098905A (ja) 文字認識装置、文字認識方法及びプログラム
JP2023510904A (ja) 手書きにおける数学検出
KR20210137808A (ko) 단어 추출 장치 및 방법
JP5911981B2 (ja) 文書検索装置、方法およびプログラム
Anami et al. A Semi-automatic Methodology for Recognition of Printed Kannada Character Primitives Useful in Character Construction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190329

R150 Certificate of patent or registration of utility model

Ref document number: 6506770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250