Stable tested version
diff --git a/.gitignore b/.gitignore
index cdb2786..41397f8 100644
--- a/.gitignore
+++ b/.gitignore
@@ -1,3 +1,8 @@
+<<<<<<< HEAD
+outputs/
+
+=======
+>>>>>>> 54e072e61c24a3ce12a7f47e17e9d8d0d1583236
 # Byte-compiled / optimized / DLL files
 __pycache__/
 *.py[cod]
@@ -91,6 +96,12 @@
 #   install all needed dependencies.
 #Pipfile.lock
 
+<<<<<<< HEAD
+# Large Files
+*.tar.gz
+
+=======
+>>>>>>> 54e072e61c24a3ce12a7f47e17e9d8d0d1583236
 # PEP 582; used by e.g. github.com/David-OConnor/pyflow
 __pypackages__/
 __pycache__/
@@ -107,6 +118,10 @@
 .venv
 env/
 venv/
+<<<<<<< HEAD
+venv-*
+=======
+>>>>>>> 54e072e61c24a3ce12a7f47e17e9d8d0d1583236
 ENV/
 env.bak/
 venv.bak/
diff --git a/DeReKo/dereko_all_filenames.txt b/DeReKo/dereko_all_filenames.txt
new file mode 100644
index 0000000..5d9940f
--- /dev/null
+++ b/DeReKo/dereko_all_filenames.txt
@@ -0,0 +1,3173 @@
+a00
+a01
+a07
+a08
+a09
+a10
+a11
+a12
+a13
+a14
+a15
+a16
+a17
+a18
+a19
+a97
+a98
+a99
+aan04
+aan05
+aan06
+aan07
+aan08
+aan09
+aan10
+aan11
+aan12
+aan13
+aan14
+aan15
+aan16
+aan17
+aan18
+aan19
+aaz03
+aaz04
+aaz05
+aaz06
+aaz07
+aaz08
+aaz09
+aaz10
+aaz11
+aaz12
+aaz13
+aaz14
+aaz15
+aaz16
+aaz17
+aaz18
+aaz19
+abm17
+abm18
+abm19
+abo02
+abo03
+abo04
+abo05
+abo06
+abo07
+abo08
+abo09
+abo10
+abo11
+abo12
+abo13
+abo14
+abo15
+abo16
+abo17
+abo18
+abo19
+aez17
+aez18
+aez19
+afz17
+afz18
+afz19
+agz17
+agz18
+agz19
+aho17
+aho18
+aho19
+alz15
+alz16
+alz17
+alz18
+alz19
+art15
+art16
+art17
+art18
+art19
+auf17
+auf18
+auf19
+auh17
+auh18
+auh19
+azm05
+azm06
+azm07
+azm08
+azm09
+azm10
+azm11
+azm12
+azm13
+azm14
+azm15
+azm16
+azm17
+azm18
+azm19
+b09
+b10
+b11
+b12
+b13
+b14
+b15
+b16
+b17
+b18
+b19
+baz00
+baz01
+baz02
+baz03
+baz04
+baz05
+baz06
+baz07
+baz08
+baz09
+baz10
+baz11
+baz12
+baz13
+baz14
+baz15
+baz16
+baz17
+baz18
+baz19
+bdz03
+bdz04
+bdz05
+bdz06
+bdz07
+bdz08
+bdz09
+bdz10
+bdz11
+bdz12
+bdz13
+bdz14
+bdz15
+bdz16
+bdz17
+bdz18
+bdz19
+bee15
+bee16
+bee17
+bee18
+bee19
+bei17
+bei18
+bei19
+beo02
+beo03
+beo04
+beo05
+beo06
+beo07
+beo08
+beo09
+beo10
+beo11
+beo12
+beo13
+beo14
+beo15
+beo18
+beo19
+bez01
+bez02
+bez03
+bez04
+bez05
+bez06
+bez07
+bez08
+bez09
+bez10
+bez11
+bez12
+bez13
+bez18
+bez19
+bil17
+bil18
+bil19
+bio-pub
+bkr12
+bkr13
+bkr14
+bkr15
+bkr16
+bkr17
+bkr18
+bkr19
+bku00
+bku01
+bku02
+bku03
+bku04
+bku05
+bku06
+bku07
+bku08
+bku09
+bku10
+bku11
+bku12
+bku13
+bku14
+bku15
+bku16
+bku17
+bku18
+bku19
+bla18
+bla19
+bli04
+bli05
+bli06
+bli07
+bli08
+bli09
+bli10
+bli11
+bli12
+bli13
+bli14
+bli15
+bli16
+bli17
+bli18
+bli19
+bmo13
+bmo14
+bmo15
+bmo16
+bmo17
+bmo18
+bmo19
+bna12
+bna13
+bna14
+bna15
+bna16
+bna17
+bna18
+bna19
+bot17
+bot18
+bot19
+boz00
+boz01
+boz02
+boz03
+boz04
+boz05
+boz06
+boz07
+boz08
+boz09
+boz10
+boz11
+boz12
+boz13
+boz14
+boz15
+boz16
+boz17
+boz18
+boz19
+brg09
+brg10
+brg11
+brg12
+brg13
+brg14
+brg15
+brg16
+brg17
+brg18
+brg19
+brm18
+brm19
+bru09
+bru10
+bru11
+bru12
+bru13
+bru14
+bru15
+bru16
+bru17
+bru18
+bru19
+brw15
+brw16
+brw17
+brw18
+brw19
+brz05
+brz06
+brz07
+brz08
+brz09
+brz10
+brz11
+brz12
+brz13
+bsz04
+bsz05
+bsz06
+bsz07
+bsz08
+bsz09
+bsz10
+bsz11
+bsz12
+bsz13
+bsz14
+bsz15
+bsz16
+bsz17
+bue06
+bue07
+bue08
+bue09
+bue10
+bue11
+bue12
+bue13
+bue14
+bue15
+bue16
+bue17
+bue18
+bue19
+bun00
+bun04
+bun05
+bun06
+bun07
+bun08
+bun09
+bun10
+bun11
+bun12
+bun13
+bun14
+bun15
+bun16
+bun17
+bun18
+bun19
+bup18
+bup19
+bvz07
+bvz08
+bvz09
+bvz10
+bvz11
+bvz12
+bvz13
+bvz14
+bvz15
+bwa13
+bwa14
+bwa15
+bwa16
+bwa17
+bwa18
+bwa19
+bze00
+bze01
+bze02
+bze03
+bze04
+bze05
+bze06
+bze07
+bze08
+bze09
+bze10
+bze11
+bze12
+bze13
+bze14
+bze15
+bze16
+bze17
+bze18
+bze19
+bzg11
+bzg12
+bzg13
+bzg14
+bzg15
+bzg16
+bzg17
+bzg18
+bzg19
+c93
+c94
+c95
+c96
+c97
+c98
+cap17
+cap18
+cap19
+chk15
+chk16
+chk17
+chk18
+chk19
+cid17
+cid18
+cid19
+cio17
+cio18
+cio19
+cit17
+cit18
+cit19
+cou15
+cou16
+cou17
+cou18
+cou19
+ct17
+ct18
+ct19
+ctb09
+ctb10
+ctb11
+ctb12
+ctb13
+ctb14
+ctb15
+ctb16
+ctb17
+ctb18
+ctb19
+dae17
+dae18
+dae19
+dak15
+dak16
+dak17
+dak18
+dak19
+daz13
+daz14
+daz15
+daz16
+daz17
+daz18
+daz19
+dbt17
+dbt18
+dbt19
+dec00
+dec01
+dec02
+dec03
+dec04
+dec05
+dec06
+dec07
+dec08
+dec09
+dec10
+dec11
+dec12
+dec13
+dec14
+dec15
+dec16
+dec17
+dec18
+dec19
+dgl19
+dib17
+dib18
+dki11
+dki12
+dki13
+dki14
+dki15
+dki16
+dki17
+dki18
+dki19
+dnn13
+dnn14
+dnn15
+dnn16
+dnn17
+dnn18
+dnn19
+dog15
+dog16
+dog17
+dog18
+dog19
+dol00
+dol01
+dol02
+dol03
+dol04
+dol05
+dol06
+dol07
+dol08
+dol09
+dol10
+dol11
+dol12
+dol13
+dol14
+dol15
+dol16
+dol17
+dol18
+dol19
+dpr13
+dpr14
+dpr15
+dpr16
+dpr17
+dpr18
+dpr19
+dsz17
+dsz18
+dsz19
+dtz17
+dtz18
+dtz19
+dvz17
+dvz18
+dvz19
+dww17
+dww18
+dww19
+e00
+e01
+e02
+e03
+e04
+e05
+e06
+e07
+e08
+e09
+e10
+e11
+e12
+e13
+e14
+e15
+e16
+e17
+e18
+e19
+e96
+e97
+e98
+e99
+edf15
+edf16
+edf17
+edf18
+edf19
+eft15
+eft16
+eft17
+eft18
+eft19
+ein17
+ein18
+elf15
+elf16
+elf17
+elf18
+elf19
+elo17
+elo18
+elo19
+elt15
+elt16
+elt17
+elt18
+elt19
+ene17
+ene18
+ene19
+epr17
+epr18
+epr19
+erk
+ett15
+ett16
+ett17
+ett18
+ett19
+eut15
+eut16
+eut17
+eut18
+eut19
+euw17
+euw18
+euw19
+eze12
+eze13
+eze14
+eze15
+eze16
+eze17
+eze18
+eze19
+fis15
+fis16
+fis17
+fis18
+fis19
+flt00
+flt01
+flt02
+flt03
+flt04
+flt05
+flt06
+flt07
+flt08
+flt09
+flt10
+flt11
+flt12
+flt13
+flt14
+flt15
+flt16
+flt17
+flt18
+flt19
+fmt00
+fmt01
+fmt02
+fmt03
+fmt04
+fmt05
+fmt06
+fmt07
+fmt08
+fmt09
+fmt10
+fmt11
+fmt12
+fmt13
+fmt14
+fmt15
+fmt16
+fmt17
+fmt18
+fnp00
+fnp01
+fnp02
+fnp03
+fnp04
+fnp05
+fnp06
+fnp07
+fnp08
+fnp09
+fnp10
+fnp11
+fnp12
+fnp13
+fnp14
+fnp15
+fnp16
+fnp17
+fnp18
+fnp19
+foc00
+foc01
+foc02
+foc03
+foc04
+foc05
+foc06
+foc07
+foc08
+foc09
+foc10
+foc11
+foc12
+foc13
+foc14
+foc15
+foc16
+foc17
+foc18
+foc19
+fom00
+fom01
+fom02
+fom03
+fom04
+fom05
+fom06
+fom07
+fom08
+fom09
+fom10
+fom11
+fom12
+fom13
+fom14
+fom15
+fom16
+fom17
+fom18
+fom19
+fpc11
+fpc12
+fpc13
+fpc14
+fpc15
+fpc16
+fpc17
+fpc18
+fpc19
+fra18
+fra19
+frt05
+frt06
+frt07
+frt08
+frt09
+frt10
+frt11
+frt12
+frt13
+frt14
+frt15
+frt16
+frt17
+frt18
+frt19
+fsp-pub
+fuw17
+fuw18
+fuw19
+gal15
+gal16
+gal17
+gal18
+gal19
+gaz00
+gaz01
+gaz02
+gaz03
+gaz04
+gaz05
+gaz06
+gaz07
+gaz08
+gaz09
+gaz10
+gaz11
+gaz12
+gaz13
+gaz14
+gaz15
+gaz16
+gaz17
+gaz18
+gaz19
+ge00
+ge01
+ge02
+ge03
+ge04
+ge05
+ge06
+ge07
+ge08
+ge09
+ge10
+ge11
+ge12
+ge13
+ge14
+ge15
+ge16
+ge17
+ge18
+ge19
+ge99
+geo09
+geo10
+geo11
+geo12
+geo13
+geo14
+geo15
+geo16
+geo17
+geo18
+geo19
+ges15
+ges16
+ges17
+ges18
+ges19
+ggt17
+ggt18
+ggt19
+giz04
+giz05
+giz06
+giz07
+giz08
+giz09
+giz10
+giz11
+giz12
+giz13
+giz14
+giz15
+giz16
+giz17
+giz18
+giz19
+gng15
+gng16
+gng17
+gng18
+gng19
+gob15
+gob16
+gob17
+gob18
+gob19
+goe
+gr1
+gri
+gsp15
+gsp16
+gsp17
+gsp18
+gsp19
+gta15
+gta16
+gta17
+gta18
+gta19
+gtb04
+gtb05
+gtb06
+gtb07
+gtb08
+gtb09
+gtb10
+gtb11
+gtb12
+gtb13
+gtb14
+gtb15
+gtb16
+gtb17
+gwp17
+gwp18
+gwp19
+h85
+h86
+h87
+h88
+haa00
+haa01
+haa02
+haa03
+haa04
+haa05
+haa06
+haa07
+haa08
+haa09
+haa10
+haa11
+haa12
+haa13
+haa14
+haa15
+haa16
+haa17
+haa18
+haa19
+haa99
+hab00
+hab01
+hab02
+hab03
+hab04
+hab05
+hab06
+hab07
+hab08
+hab09
+hab10
+hab11
+hab12
+hab13
+hab14
+hab15
+hab16
+hab17
+hab18
+hab19
+hat13
+hat14
+hat15
+hat16
+hat17
+hat18
+hat19
+hau18
+hau19
+haz07
+haz08
+haz09
+haz10
+haz11
+haz12
+haz13
+haz14
+haz15
+haz16
+haz17
+haz18
+haz19
+hdz00
+hdz01
+hdz02
+hdz03
+hdz04
+hdz05
+hdz06
+hdz07
+hdz08
+hdz09
+hdz10
+hdz11
+hdz12
+hdz13
+hdz14
+hdz15
+hdz16
+hdz17
+hdz18
+hdz19
+hdz92
+hdz93
+hdz94
+hdz95
+hdz96
+hdz97
+hdz98
+hdz99
+hfz03
+hfz04
+hfz05
+hfz06
+hfz07
+hfz08
+hfz09
+hfz10
+hfz11
+hfz12
+hfz13
+hfz14
+hfz15
+hfz16
+hfz17
+hfz18
+hfz19
+hgz17
+hgz18
+hgz19
+hhz04
+hhz05
+hhz06
+hhz07
+hhz08
+hhz09
+hhz10
+hhz11
+hhz12
+hhz13
+hhz14
+hhz15
+hhz16
+hhz17
+hhz18
+hhz19
+hkr14
+hkr15
+hkr16
+hkr17
+hkr18
+hkr19
+hmp05
+hmp06
+hmp07
+hmp08
+hmp09
+hmp10
+hmp11
+hmp12
+hmp13
+hmp14
+hmp15
+hmp16
+hmp17
+hmp18
+hmp19
+hna19
+hor17
+hor18
+hor19
+hrz07
+hrz08
+hrz09
+hrz10
+hrz11
+hrz12
+hrz13
+hrz14
+hrz15
+hrz16
+hrz17
+hrz18
+hrz19
+hst09
+hst10
+hst11
+hst12
+hst13
+hst14
+hst15
+hst16
+hst17
+hst18
+hst19
+htb14
+htb15
+htb16
+htb17
+htb18
+htb19
+hzs18
+hzs19
+hzw18
+hzw19
+hzz14
+hzz15
+hzz16
+hzz17
+hzz18
+hzz19
+i00
+i01
+i02
+i03
+i04
+i05
+i06
+i07
+i08
+i09
+i10
+i11
+i12
+i13
+i14
+i15
+i16
+i17
+i18
+i19
+i96
+i97
+i98
+i99
+imw17
+imw18
+imw19
+imz17
+imz18
+imz19
+itb17
+itb18
+itb19
+itt17
+itt18
+itt19
+ix17
+ix18
+ix19
+jue10
+jue11
+jue12
+jue13
+jue14
+jue15
+jue16
+jue17
+jue18
+jue19
+k00
+k02
+k03
+k04
+k05
+k06
+k07
+k08
+k09
+k10
+k11
+k12
+k13
+k14
+k15
+k16
+k17
+k18
+k19
+k96
+k97
+k98
+k99
+kaz04
+kaz05
+kaz06
+kaz07
+kaz08
+kaz09
+kaz10
+kaz11
+kaz12
+kaz13
+kaz14
+kaz15
+kaz16
+kaz17
+kaz18
+kaz19
+kfz17
+kfz18
+kfz19
+khh17
+khh18
+khh19
+kic
+kir13
+kir14
+kir15
+kir16
+kir17
+kir18
+kir19
+kjl
+kn19
+kru02
+kru03
+kru04
+kru05
+kru06
+kru07
+kru08
+kru09
+kru10
+kru11
+kru12
+kru13
+kru14
+kru15
+kru16
+kru17
+kru18
+kru19
+ksa00
+ksa01
+ksa02
+ksa03
+ksa04
+ksa05
+ksa06
+ksa07
+ksa08
+ksa09
+ksa10
+ksa11
+ksa12
+ksa13
+ksa14
+ksa15
+ksa16
+ksa17
+ksa18
+ksa19
+ksp
+ktz04
+ktz05
+ktz06
+ktz07
+ktz08
+ktz09
+ktz10
+ktz11
+ktz12
+ktz13
+ktz14
+kur02
+kur03
+kur04
+kur05
+kur06
+kur07
+kur08
+kur09
+kur10
+kur11
+kur12
+kur13
+kur14
+kur15
+kur16
+kur17
+kur18
+kur19
+kxp00
+kxp02
+kxp03
+kxp04
+kxp05
+kxp06
+kxp07
+kxp08
+kxp09
+kxp10
+kxp11
+kxp12
+kxp13
+kxp14
+kxp15
+kxp16
+kxp17
+kxp18
+kxp19
+l00
+l01
+l02
+l03
+l04
+l05
+l06
+l07
+l08
+l09
+l10
+l11
+l12
+l13
+l14
+l15
+l16
+l17
+l18
+l19
+l97
+l98
+l99
+lab17
+lab18
+lab19
+lah15
+lah16
+lah17
+lah18
+lah19
+lan04
+lan05
+lan06
+lan07
+lan08
+lan09
+lan10
+lan11
+lan12
+lan13
+lan14
+lan15
+lan16
+lan17
+lan18
+lan19
+laz07
+laz08
+laz09
+laz10
+laz11
+laz12
+laz13
+laz14
+laz15
+laz16
+laz17
+laz18
+laz19
+lhz14
+lhz15
+lhz16
+lhz17
+lhz18
+lhz19
+lim
+lit12
+lit13
+lit14
+lit15
+lit16
+lit17
+lit18
+lit19
+lmd17
+lmd18
+lmd19
+lmz17
+lmz18
+lmz19
+ln19
+log17
+log18
+log19
+loz-div-pub
+loz-wam
+lru00
+lru01
+lru02
+lru03
+lru04
+lru05
+lru06
+lru07
+lru08
+lru09
+lru10
+lru11
+lru12
+lru13
+lru14
+lru15
+lru16
+lru17
+lru18
+lru19
+ltb08
+ltb09
+ltb10
+ltb11
+ltb12
+ltb13
+ltb14
+ltb15
+ltb16
+ltb17
+ltb18
+ltb19
+lvz00
+lvz01
+lvz02
+lvz03
+lvz04
+lvz05
+lvz06
+lvz07
+lvz08
+lvz09
+lvz10
+lvz11
+lvz12
+lvz13
+lvz14
+lvz15
+lvz16
+lvz17
+lvz18
+lvz19
+m00
+m01
+m02
+m03
+m04
+m05
+m06
+m07
+m08
+m09
+m10
+m11
+m12
+m13
+m14
+m15
+m16
+m17
+m18
+m19
+m89
+m91
+m94
+m95
+m96
+m97
+m98
+m99
+mag07
+mag08
+mag09
+mag10
+mag11
+mag12
+mag13
+mag14
+mag15
+mag16
+mag17
+mag18
+mag19
+maz00
+maz01
+maz02
+maz03
+maz04
+maz05
+maz06
+maz07
+maz08
+maz09
+maz10
+maz11
+maz12
+maz13
+maz14
+maz15
+maz16
+maz17
+maz18
+maz19
+mdr17
+mdr18
+mdr19
+meg
+mep12
+mep13
+mep14
+mep15
+mep16
+mep17
+mep18
+mep19
+mew
+mib14
+mib15
+mib16
+mib17
+mib18
+mib19
+mid17
+mid18
+mid19
+mld
+mme16
+mme17
+mme18
+mme19
+mpo00
+mpo01
+mpo02
+mpo03
+mpo04
+mpo05
+mpo06
+mpo07
+mpo08
+mpo09
+mpo10
+mpo11
+mpo12
+mpo13
+mpo14
+mpo15
+mpo16
+mpo17
+mpo18
+mpo19
+mpo97
+mpo98
+mpo99
+msp00
+msp01
+msp02
+msp03
+msp04
+msp05
+msp06
+msp07
+msp08
+msp09
+msp10
+msp11
+msp12
+msp13
+msp14
+msp15
+msp16
+msp17
+msp18
+msp19
+msp98
+msp99
+mt17
+mt18
+mt19
+mtk02
+mtk03
+mtk04
+mtk05
+mtk06
+mtk07
+mtk08
+mtk09
+mtk10
+mtk11
+mtk12
+mtk13
+mtk14
+mtk15
+mtk16
+mtk17
+mtk18
+mtk19
+mut17
+mut18
+mut19
+muv14
+muv15
+muv16
+muv17
+muv18
+muv19
+mwa
+mwo17
+mwo18
+mwo19
+mze00
+mze01
+mze02
+mze03
+mze04
+mze05
+mze06
+mze07
+mze08
+mze09
+mze10
+mze11
+mze12
+mze13
+mze14
+mze15
+mze16
+mze17
+mze18
+mze19
+n00
+n01
+n02
+n03
+n04
+n05
+n06
+n07
+n08
+n09
+n10
+n11
+n12
+n13
+n14
+n15
+n16
+n17
+n18
+n19
+n91
+n92
+n93
+n94
+n95
+n96
+n97
+n98
+n99
+nbk15
+nbk16
+nbk17
+nbk18
+nbk19
+ndo15
+ndo16
+ndo17
+ndo18
+ndo19
+neo15
+neo16
+neo17
+neo18
+neu07
+neu08
+neu09
+new02
+new03
+new04
+new05
+new06
+new07
+new08
+new09
+new10
+new11
+new12
+new13
+new14
+new15
+new16
+new17
+new18
+new19
+ngz13
+ngz14
+ngz15
+ngz16
+ngz17
+ngz18
+ngz19
+nku00
+nku01
+nku02
+nku03
+nku04
+nku05
+nku06
+nku07
+nku08
+nku09
+nku10
+nku11
+nku12
+nku13
+nku14
+nku15
+nku16
+nku17
+nku18
+nku19
+nlz00
+nlz01
+nlz02
+nlz03
+nlz04
+nlz05
+nlz06
+nlz07
+nlz08
+nlz09
+nlz10
+nlz11
+nlz12
+nlz13
+nlz14
+nlz15
+nlz16
+nlz17
+nlz18
+nlz19
+nnn13
+nnn14
+nnn15
+nnn16
+nnn17
+nnn18
+nnn19
+nnp14
+nnp15
+nnp16
+nnp17
+nnp18
+nnp19
+non07
+non08
+non09
+non10
+non11
+non12
+non13
+non14
+non15
+non16
+non17
+non18
+non19
+now16
+now17
+now18
+now19
+noz12
+noz13
+noz14
+noz15
+noz16
+noz17
+noz18
+noz19
+npr15
+npr16
+npr17
+npr18
+npr19
+nun00
+nun01
+nun02
+nun03
+nun04
+nun05
+nun06
+nun07
+nun08
+nun09
+nun10
+nun11
+nun12
+nun13
+nun14
+nun15
+nun16
+nun17
+nun18
+nun19
+nun90
+nun91
+nun92
+nun93
+nun94
+nun95
+nun96
+nun97
+nun98
+nun99
+nuz02
+nuz03
+nuz04
+nuz05
+nuz06
+nuz07
+nuz08
+nuz09
+nuz10
+nuz11
+nuz12
+nuz13
+nuz14
+nuz15
+nuz16
+nuz17
+nuz18
+nuz19
+nvb00
+nvb01
+nvb02
+nvb03
+nvb04
+nvb05
+nvb06
+nvb07
+nvb08
+nvb09
+nvb10
+nvb11
+nvb12
+nvb13
+nvb14
+nvb15
+nvb16
+nvb17
+nvb18
+nvb19
+nvt00
+nvt01
+nvt02
+nvt03
+nvt05
+nvt06
+nvt07
+nvt09
+nvt10
+nvt11
+nvt12
+nvt13
+nvt14
+nvt15
+nvt16
+nvt17
+nvt18
+nvt19
+nwe03
+nwe04
+nwe05
+nwe06
+nwe07
+nwe08
+nwe09
+nwe10
+nwe11
+nwe12
+nwe13
+nwe14
+nwe15
+nwe16
+nwe17
+nwe18
+nwe19
+nws00
+nws01
+nws02
+nws03
+nws04
+nws09
+nws10
+nws11
+nws12
+nws13
+nws14
+nws15
+nws16
+nws17
+nws18
+nws19
+nwt15
+nwt16
+nwt17
+nwt18
+nwt19
+nwz07
+nwz08
+nwz09
+nwz10
+nwz11
+nwz12
+nwz13
+nwz14
+nwz15
+nwz16
+nwz17
+nwz18
+nwz19
+nzf00
+nzf01
+nzf02
+nzf03
+nzf04
+nzf05
+nzf06
+nzf07
+nzf08
+nzf09
+nzf10
+nzf11
+nzf12
+nzf13
+nzf14
+nzf15
+nzf16
+nzf17
+nzf18
+nzf19
+nzf94
+nzf95
+nzf96
+nzf97
+nzf98
+nzf99
+nzs02
+nzs03
+nzs04
+nzs05
+nzs06
+nzs07
+nzs08
+nzs09
+nzs10
+nzs11
+nzs12
+nzs13
+nzs14
+nzs15
+nzs16
+nzs17
+nzs18
+nzs19
+nzz00
+nzz01
+nzz02
+nzz03
+nzz04
+nzz05
+nzz06
+nzz07
+nzz08
+nzz09
+nzz10
+nzz11
+nzz12
+nzz13
+nzz14
+nzz15
+nzz16
+nzz17
+nzz18
+nzz19
+o00
+o02
+o03
+o04
+o05
+o06
+o07
+o08
+o09
+o10
+o11
+o12
+o13
+o14
+o15
+o16
+o17
+o18
+o19
+o94
+o95
+o96
+o97
+o98
+o99
+oaz13
+oaz14
+oaz15
+oaz16
+oaz17
+oaz18
+oaz19
+ohz07
+ohz08
+ohz09
+ohz10
+ohz11
+ohz12
+ohz13
+ohz14
+ohz15
+ohz16
+ohz17
+ohz18
+ohz19
+osz16
+osz17
+osz18
+osz19
+otz00
+otz01
+otz02
+otz03
+otz04
+otz05
+otz06
+otz07
+otz08
+otz09
+otz10
+otz11
+otz12
+otz17
+otz18
+otz19
+ovz13
+ovz14
+ovz15
+ovz16
+ovz17
+ovz18
+ovz19
+p00
+p02
+p03
+p04
+p05
+p06
+p07
+p08
+p09
+p10
+p11
+p12
+p13
+p14
+p15
+p16
+p17
+p18
+p19
+p91
+p92
+p93
+p94
+p95
+p96
+p97
+p98
+p99
+paz15
+paz16
+paz17
+paz18
+paz19
+pco17
+pco18
+pco19
+ph05
+ph06
+ph07
+ph08
+ph09
+ph10
+ph11
+pha17
+pha18
+pha19
+pmm15
+pmm16
+pmm17
+pmm18
+pmm19
+pnn05
+pnn06
+pnn07
+pnn08
+pnn09
+pnn10
+pnn11
+pnn12
+pnn13
+pnn14
+pnn15
+pnn16
+pnn17
+pnn18
+pnn19
+pnp01
+pnp02
+pnp03
+pnp04
+pnp05
+pnp06
+pnp07
+pnp08
+pnp09
+pnp10
+pnp11
+pnp12
+pnp13
+pnp14
+pnp15
+pnp16
+pnp17
+pnp18
+pnp19
+pp-bb
+pp-be
+pp-br
+pp-bt
+pp-bw
+pp-by
+pp-hb
+pp-he
+pp-hh
+pp-mv
+pp-ni
+pp-no
+pp-nw
+pp-rp
+pp-sh
+pp-sl
+pp-sn
+pp-st
+pp-th
+prf00
+prf01
+prf02
+prf03
+prf04
+prf05
+prf06
+prf07
+prf08
+prf09
+prf10
+prf11
+prf12
+prf13
+prf14
+prf15
+prf16
+prf17
+prf18
+prf19
+r00
+r01
+r02
+r03
+r04
+r05
+r06
+r07
+r08
+r09
+r10
+r11
+r12
+r13
+r14
+r15
+r16
+r97
+r98
+r99
+rbs17
+rbs18
+rbs19
+rga07
+rga08
+rga09
+rga10
+rga11
+rga12
+rga13
+rga14
+rga15
+rga16
+rga17
+rga18
+rga19
+rhz00
+rhz01
+rhz02
+rhz03
+rhz04
+rhz05
+rhz06
+rhz07
+rhz08
+rhz09
+rhz10
+rhz11
+rhz12
+rhz13
+rhz14
+rhz15
+rhz16
+rhz17
+rhz18
+rhz19
+rhz96
+rhz97
+rhz98
+rhz99
+rlh17
+rlh18
+rlh19
+rln14
+rln15
+rln16
+rln17
+rln18
+rln19
+rn19
+rpo01
+rpo02
+rpo03
+rpo04
+rpo05
+rpo06
+rpo07
+rpo08
+rpo09
+rpo10
+rpo11
+rpo12
+rpo13
+rpo14
+rpo15
+rpo16
+rpo17
+rpo18
+rpo19
+rsw14
+rsw15
+rsw16
+rsw17
+rsw18
+rsw19
+rue15
+rue16
+rue17
+rue18
+rue19
+rvz13
+rvz14
+rvz15
+rvz16
+rvz17
+rvz18
+rvz19
+s00
+s01
+s02
+s03
+s04
+s05
+s06
+s07
+s08
+s09
+s10
+s11
+s12
+s13
+s14
+s15
+s16
+s17
+s18
+s19
+s47
+s48
+s49
+s50
+s51
+s52
+s53
+s54
+s55
+s56
+s57
+s58
+s59
+s60
+s61
+s62
+s63
+s64
+s65
+s66
+s67
+s68
+s69
+s70
+s71
+s72
+s73
+s74
+s75
+s76
+s77
+s78
+s79
+s80
+s81
+s82
+s83
+s84
+s85
+s86
+s87
+s88
+s89
+s90
+s91
+s92
+s93
+s94
+s95
+s96
+s97
+s98
+s99
+saz11
+saz12
+saz13
+saz14
+saz15
+saz16
+saz17
+saz18
+saz19
+sbl01
+sbl05
+sbl06
+sbl07
+sbl08
+sbl09
+sbl10
+sbl11
+sbl12
+sbl13
+sbl14
+sbl15
+sbl16
+sbl17
+sbl18
+sbl19
+sbz00
+sbz01
+sbz02
+sbz03
+sbz04
+sbz05
+sbz06
+sbz07
+sbz08
+sbz09
+sbz10
+sbz11
+sbz12
+sbz13
+sbz14
+sbz15
+sbz16
+sbz17
+sbz18
+sbz19
+sch17
+sch18
+sch19
+sct13
+sct14
+sct15
+sct16
+sct17
+sct18
+sct19
+scv17
+scv18
+scv19
+scw15
+scw16
+scw17
+scw18
+scw19
+scz11
+scz12
+scz13
+scz14
+scz15
+scz16
+scz17
+scz18
+scz19
+sid
+sku00
+sku01
+sku02
+sku03
+sku04
+sku05
+sku06
+sku07
+sku08
+sku09
+sku10
+sku11
+sku12
+sku13
+sku14
+sku15
+sku16
+sku17
+sku18
+sku19
+smp13
+smp14
+smp15
+smp16
+smp17
+smp18
+smp19
+soa04
+soa05
+soa06
+soa07
+soa08
+soa09
+soa10
+soa11
+soa12
+soa14
+soa15
+soa16
+sol00
+sol01
+sol02
+sol03
+sol04
+sol05
+sol06
+sol07
+sol08
+sol09
+sol10
+sol11
+sol12
+sol13
+sol14
+sol15
+sol16
+sol17
+sol18
+sol19
+sol99
+soz05
+soz06
+soz07
+soz08
+soz09
+soz10
+soz11
+soz12
+soz13
+soz14
+soz15
+soz16
+soz17
+soz18
+spk
+spz17
+spz18
+spz19
+sta00
+sta01
+sta03
+sta04
+sta05
+sta06
+sta07
+sta08
+sta09
+sta10
+sta11
+sta12
+sta13
+sta14
+sta15
+sta16
+sta17
+sta18
+sta19
+stb14
+stb15
+stb16
+stb17
+stb18
+stb19
+ste00
+ste01
+ste02
+ste03
+ste04
+ste05
+ste06
+ste07
+ste08
+ste09
+ste10
+ste11
+ste12
+ste13
+ste14
+ste15
+ste16
+ste17
+ste18
+ste19
+ste96
+ste97
+ste98
+ste99
+stg18
+stg19
+stn04
+stn05
+stn06
+stn07
+stn08
+stn09
+stn10
+stn11
+stn12
+stn13
+stn14
+stn15
+stn16
+stz00
+stz01
+stz02
+stz03
+stz04
+stz05
+stz06
+stz07
+stz08
+stz09
+stz10
+stz11
+stz12
+stz13
+stz14
+stz15
+stz16
+svz04
+svz05
+svz06
+svz07
+svz08
+svz09
+svz10
+svz11
+svz12
+svz13
+svz14
+svz15
+svz16
+svz17
+svz18
+svz19
+swp07
+swp08
+swp09
+swp10
+swp11
+swp12
+swp13
+swp14
+swp15
+swp16
+swp17
+swp18
+swp19
+sze00
+sze01
+sze02
+sze03
+sze04
+sze05
+sze06
+sze07
+sze08
+sze09
+sze10
+sze11
+sze12
+sze13
+sze14
+sze15
+sze16
+sze17
+sze18
+sze19
+t00
+t01
+t02
+t03
+t04
+t05
+t06
+t07
+t08
+t09
+t10
+t11
+t12
+t13
+t14
+t15
+t16
+t17
+t18
+t19
+tai17
+tai18
+tai19
+tas00
+tas01
+tas02
+tas03
+tas04
+tas05
+tas06
+tas07
+tas08
+tas09
+tas10
+tas11
+tas12
+tas13
+tas14
+tas15
+tas16
+tas17
+tas18
+tas19
+tbz14
+tbz15
+tet17
+tet18
+tet19
+tew17
+tew18
+tew19
+tha00
+tha01
+tha02
+tha03
+tha04
+tha05
+tha06
+tha07
+tha08
+tha09
+tha10
+tha11
+tha12
+tha17
+tha18
+tha19
+thb17
+thb18
+thb19
+tlz00
+tlz01
+tlz02
+tlz03
+tlz04
+tlz05
+tlz06
+tlz07
+tlz08
+tlz09
+tlz10
+tlz11
+tlz12
+tlz17
+tlz18
+tlz19
+tnz14
+tnz15
+tnz16
+tnz17
+tnz18
+tnz19
+toz13
+toz14
+toz15
+tre17
+tre18
+tre19
+tru17
+tru18
+tru19
+tsp00
+tsp01
+tsp02
+tsp03
+tsp04
+tsp05
+tsp06
+tsp07
+tsp08
+tsp09
+tsp10
+tsp11
+tsp12
+tsp13
+tsp14
+tsp15
+tsp16
+tsp17
+tsp18
+tsp19
+tvd15
+tvd16
+tvd17
+tvd18
+tvd19
+tvf00
+tvf01
+tvf02
+tvf03
+tvf04
+tvf05
+tvf06
+tvf07
+tvf08
+tvf09
+tvf10
+tvf11
+tvf12
+tvf13
+tvf14
+tvf15
+tvf16
+tvf17
+tvf18
+tvf19
+u00
+u01
+u02
+u03
+u04
+u05
+u06
+u07
+u08
+u09
+u10
+u11
+u12
+u13
+u14
+u15
+u16
+u17
+u18
+u19
+u92
+u93
+u94
+u95
+u96
+u97
+u98
+u99
+uan04
+uan05
+uan06
+uan07
+uan08
+uan09
+uan10
+uan11
+uan12
+uan13
+uan14
+uan15
+uan16
+uan17
+uan18
+uan19
+v00
+v02
+v03
+v04
+v05
+v06
+v07
+v08
+v09
+v10
+v11
+v12
+v13
+v14
+v15
+v16
+v17
+v18
+v19
+v97
+v98
+v99
+vbw13
+vbw14
+vbw15
+vbw16
+vbw17
+vbw18
+vbw19
+vdi06
+vdi07
+vdi08
+vdi09
+vdi10
+vdi11
+vdi12
+vdi13
+vdi14
+vdi15
+vdi16
+vdi17
+vdi18
+vdi19
+vru17
+vru18
+vru19
+vsw17
+vsw18
+vsw19
+vzs13
+vzs14
+vzs15
+vzs16
+vzs17
+vzs18
+vzs19
+w00
+w01
+w02
+w03
+w04
+w05
+w06
+w07
+w08
+w09
+w10
+w11
+w12
+w13
+w14
+w15
+w16
+w17
+w18
+w19
+w99
+was00
+was01
+was02
+was03
+was04
+was05
+was06
+was07
+was08
+was09
+was10
+was11
+was12
+was13
+was14
+was15
+was16
+was17
+was18
+was19
+was97
+was98
+was99
+wbl00
+wbl01
+wbl02
+wbl03
+wbl04
+wbl05
+wbl06
+wbl07
+wbl08
+wbl09
+wbl10
+wbl11
+wbl12
+wbl13
+wbl14
+wbl15
+wbl16
+weo09
+weo10
+weo11
+weo12
+weo13
+weo14
+weo15
+weo16
+weo17
+weo18
+weo19
+wez09
+wez10
+wez11
+wez12
+wez13
+wez14
+wez15
+wez16
+wez17
+wez18
+wez19
+wfb10
+wfb11
+wfb12
+wfb13
+wfb14
+wfb15
+wfb18
+wfb19
+wiz00
+wiz01
+wiz02
+wiz03
+wiz04
+wiz05
+wiz06
+wiz07
+wiz08
+wiz09
+wiz10
+wiz11
+wiz12
+wiz13
+wiz14
+wiz15
+wiz16
+wiz17
+wiz18
+wiz19
+wkb
+wkd
+wku00
+wku01
+wku03
+wku04
+wku05
+wku06
+wku07
+wku08
+wku09
+wku10
+wku11
+wku12
+wku13
+wku14
+wku15
+wku16
+wku17
+wku18
+wku19
+wor02
+wor03
+wor04
+wor05
+wor06
+wor07
+wor08
+wor09
+wor10
+wor11
+wor12
+wor13
+wor14
+wor15
+wor16
+wor17
+wor18
+wor19
+wtb02
+wtb03
+wtb04
+wtb05
+wtb06
+wtb07
+wtb08
+wtb09
+wtb10
+wtb11
+wtb12
+wtb13
+wtb14
+wtb15
+wtb16
+wtb17
+wtb18
+wtb19
+wwo05
+wwo06
+wwo07
+wwo08
+wwo09
+wwo10
+wwo11
+wwo12
+wwo13
+wwo14
+wwo15
+wwo16
+wwo17
+wwo18
+wwo19
+x00
+x01
+x02
+x03
+x04
+x08
+x09
+x10
+x11
+x12
+x13
+x14
+x15
+x16
+x17
+x18
+x19
+x96
+x97
+x98
+x99
+z00
+z01
+z02
+z03
+z04
+z05
+z06
+z07
+z08
+z09
+z10
+z11
+z12
+z13
+z14
+z15
+z16
+z17
+z18
+z19
+z53
+z54
+z55
+z56
+z57
+z58
+z59
+z60
+z61
+z62
+z63
+z64
+z65
+z66
+z67
+z68
+z69
+z70
+z71
+z72
+z73
+z74
+z75
+z76
+z77
+z78
+z79
+z80
+z81
+z82
+z83
+z84
+z85
+z86
+z87
+z88
+z89
+z90
+z91
+z92
+z93
+z94
+z95
+z96
+z97
+z98
+z99
+zca09
+zca10
+zca11
+zca12
+zca13
+zca14
+zca15
+zca16
+zca17
+zca18
+zca19
+zcw15
+zcw16
+zcw17
+zcw18
+zcw19
+zge10
+zge11
+zge12
+zge13
+zge14
+zge15
+zge16
+zge17
+zge18
+zge19
+zwi09
+zwi10
+zwi11
+zwi12
+zwi13
+zwi14
+zwi15
+zwi17
+zwi18
+zwi19
diff --git a/DeReKo/dereko_mini_test.txt b/DeReKo/dereko_mini_test.txt
new file mode 100644
index 0000000..26c4090
--- /dev/null
+++ b/DeReKo/dereko_mini_test.txt
@@ -0,0 +1,11 @@
+a00
+a01
+a07
+a08
+a09
+a10
+zwi10
+zwi11
+zwi12
+zwi13
+zwi14
\ No newline at end of file
diff --git a/DeReKo/exec_dereko_parallel.sh b/DeReKo/exec_dereko_parallel.sh
new file mode 100644
index 0000000..13ca557
--- /dev/null
+++ b/DeReKo/exec_dereko_parallel.sh
@@ -0,0 +1,94 @@
+#!/bin/bash
+
+source ~/.bashrc
+
+ROOT_DATAPATH=/export/netapp/kupietz/N-GRAMM-STUDIE/conllu
+FILES_TO_PROCESS=DeReKo/all_dereko_filenames.txt
+
+while IFS= read -r line
+do
+  my_files+=($line)
+done < ${FILES_TO_PROCESS}
+
+let files_len=${#my_files[@]}+10
+
+for (( i=0; i<=$files_len; i+=10 ))
+  do 
+  	let next=i
+	file_1=${my_files[next]}
+	python systems/parse_spacy.py --corpus_name DeReKo_${my_files[next]} --comment_str "#" \
+	  -i ${ROOT_DATAPATH}/${my_files[next]}.conllu.gz \
+	  -o ${ROOT_DATAPATH}/0_SpaCyParsed/${my_files[next]}.spacy.gl.conllu &
+	let next=next+1
+	file_2=${my_files[next]}
+	python systems/parse_spacy.py --corpus_name DeReKo_${my_files[next]} --comment_str "#" \
+	  -i ${ROOT_DATAPATH}/${my_files[next]}.conllu.gz \
+	  -o ${ROOT_DATAPATH}/0_SpaCyParsed/${my_files[next]}.spacy.gl.conllu &
+	let next=next+1
+	file_3=${my_files[next]}
+	python systems/parse_spacy.py --corpus_name DeReKo_${my_files[next]} --comment_str "#" \
+	  -i ${ROOT_DATAPATH}/${my_files[next]}.conllu.gz \
+	  -o ${ROOT_DATAPATH}/0_SpaCyParsed/${my_files[next]}.spacy.gl.conllu &
+	let next=next+1
+	file_4=${my_files[next]}
+	python systems/parse_spacy.py --corpus_name DeReKo_${my_files[next]} --comment_str "#" \
+	  -i ${ROOT_DATAPATH}/${my_files[next]}.conllu.gz \
+	  -o ${ROOT_DATAPATH}/0_SpaCyParsed/${my_files[next]}.spacy.gl.conllu &
+	let next=next+1
+	file_5=${my_files[next]}
+	python systems/parse_spacy.py --corpus_name DeReKo_${my_files[next]} --comment_str "#" \
+	  -i ${ROOT_DATAPATH}/${my_files[next]}.conllu.gz \
+	  -o ${ROOT_DATAPATH}/0_SpaCyParsed/${my_files[next]}.spacy.gl.conllu &
+	let next=next+1
+	file_6=${my_files[next]}
+	python systems/parse_spacy.py --corpus_name DeReKo_${my_files[next]} --comment_str "#" \
+	  -i ${ROOT_DATAPATH}/${my_files[next]}.conllu.gz \
+	  -o ${ROOT_DATAPATH}/0_SpaCyParsed/${my_files[next]}.spacy.gl.conllu &
+	let next=next+1
+	file_7=${my_files[next]}
+	python systems/parse_spacy.py --corpus_name DeReKo_${my_files[next]} --comment_str "#" \
+	  -i ${ROOT_DATAPATH}/${my_files[next]}.conllu.gz \
+	  -o ${ROOT_DATAPATH}/0_SpaCyParsed/${my_files[next]}.spacy.gl.conllu &
+	let next=next+1
+	file_8=${my_files[next]}
+	python systems/parse_spacy.py --corpus_name DeReKo_${my_files[next]} --comment_str "#" \
+	  -i ${ROOT_DATAPATH}/${my_files[next]}.conllu.gz \
+	  -o ${ROOT_DATAPATH}/0_SpaCyParsed/${my_files[next]}.spacy.gl.conllu &
+	let next=next+1
+	file_9=${my_files[next]}
+	python systems/parse_spacy.py --corpus_name DeReKo_${my_files[next]} --comment_str "#" \
+	  -i ${ROOT_DATAPATH}/${my_files[next]}.conllu.gz \
+	  -o ${ROOT_DATAPATH}/0_SpaCyParsed/${my_files[next]}.spacy.gl.conllu &
+	let next=next+1
+	file_10=${my_files[next]}
+	python systems/parse_spacy.py --corpus_name DeReKo_${my_files[next]} --comment_str "#" \
+	  -i ${ROOT_DATAPATH}/${my_files[next]}.conllu.gz \
+	  -o ${ROOT_DATAPATH}/0_SpaCyParsed/${my_files[next]}.spacy.gl.conllu &
+	wait
+	# Remove Original Uncompressed Files
+	rm ${ROOT_DATAPATH}/${file_1}.conllu
+	rm ${ROOT_DATAPATH}/${file_2}.conllu
+	rm ${ROOT_DATAPATH}/${file_3}.conllu
+	rm ${ROOT_DATAPATH}/${file_4}.conllu
+	rm ${ROOT_DATAPATH}/${file_5}.conllu
+	rm ${ROOT_DATAPATH}/${file_6}.conllu
+	rm ${ROOT_DATAPATH}/${file_7}.conllu
+	rm ${ROOT_DATAPATH}/${file_8}.conllu
+	rm ${ROOT_DATAPATH}/${file_9}.conllu
+	rm ${ROOT_DATAPATH}/${file_10}.conllu
+	# ZIP The generated Parsed Outputs
+	gzip ${ROOT_DATAPATH}/0_SpaCyParsed/${file_1}.spacy.gl.conllu &
+	gzip ${ROOT_DATAPATH}/0_SpaCyParsed/${file_2}.spacy.gl.conllu &
+	gzip ${ROOT_DATAPATH}/0_SpaCyParsed/${file_3}.spacy.gl.conllu &
+	gzip ${ROOT_DATAPATH}/0_SpaCyParsed/${file_4}.spacy.gl.conllu &
+	gzip ${ROOT_DATAPATH}/0_SpaCyParsed/${file_5}.spacy.gl.conllu &
+	gzip ${ROOT_DATAPATH}/0_SpaCyParsed/${file_6}.spacy.gl.conllu &
+	gzip ${ROOT_DATAPATH}/0_SpaCyParsed/${file_7}.spacy.gl.conllu &
+	gzip ${ROOT_DATAPATH}/0_SpaCyParsed/${file_8}.spacy.gl.conllu &
+	gzip ${ROOT_DATAPATH}/0_SpaCyParsed/${file_9}.spacy.gl.conllu &
+	gzip ${ROOT_DATAPATH}/0_SpaCyParsed/${file_10}.spacy.gl.conllu &
+	wait
+  done
+  
+  
+  
diff --git a/DeReKo/tutorial_examples/explore_dereko.py b/DeReKo/explore_dereko.py
similarity index 90%
rename from DeReKo/tutorial_examples/explore_dereko.py
rename to DeReKo/explore_dereko.py
index fcf4915..eabb2fc 100644
--- a/DeReKo/tutorial_examples/explore_dereko.py
+++ b/DeReKo/explore_dereko.py
@@ -17,5 +17,7 @@
         prefix = fn.split(".")[0]
         prefix = re.findall("\D+", prefix)[0]
         file_groups[prefix].append(fn)
+        print(fn.split(".")[0])
+    
     for group,files in sorted(file_groups.items(), key=lambda x: len(x[1]), reverse=True):
-        print(group, len(files))
\ No newline at end of file
+       print(group, len(files))
\ No newline at end of file
diff --git a/DeReKo/spacy_train/basic_config_allOrth.cfg b/DeReKo/spacy_train/basic_config_allOrth.cfg
new file mode 100644
index 0000000..2b27744
--- /dev/null
+++ b/DeReKo/spacy_train/basic_config_allOrth.cfg
@@ -0,0 +1,81 @@
+[paths]
+train = "/vol/netapp/daza/datasets/TIGER_conll/data_splits/train/Tiger.ALL.Orth.train.spacy"
+dev = "/vol/netapp/daza/datasets/TIGER_conll/data_splits/test/Tiger.NewOrth.test.spacy"
+
+[system]
+gpu_allocator = "pytorch"
+
+
+[nlp]
+lang = "de"
+pipeline = ["transformer", "tagger"]
+tokenizer = {"@tokenizers": "spacy.Tokenizer.v1"}
+
+[components]
+
+[components.transformer]
+factory = "transformer"
+
+[components.transformer.model]
+@architectures = "spacy-transformers.TransformerModel.v1"
+name = "bert-base-german-cased"
+tokenizer_config = {"use_fast": true}
+
+[components.transformer.model.get_spans]
+@span_getters = "spacy-transformers.strided_spans.v1"
+window = 128
+stride = 96
+
+
+[components.tagger]
+factory = "tagger"
+
+[components.tagger.model]
+@architectures = "spacy.Tagger.v1"
+nO = null
+
+[components.tagger.model.tok2vec]
+@architectures = "spacy-transformers.TransformerListener.v1"
+grad_factor = 1.0
+
+[components.tagger.model.tok2vec.pooling]
+@layers = "reduce_mean.v1"
+
+
+
+[corpora]
+
+[corpora.train]
+@readers = "spacy.Corpus.v1"
+path = ${paths.train}
+max_length = 500
+
+[corpora.dev]
+@readers = "spacy.Corpus.v1"
+path = ${paths.dev}
+max_length = 0
+
+[training]
+accumulate_gradient = 3
+dev_corpus = "corpora.dev"
+train_corpus = "corpora.train"
+
+[training.optimizer]
+@optimizers = "Adam.v1"
+
+[training.optimizer.learn_rate]
+@schedules = "warmup_linear.v1"
+warmup_steps = 250
+total_steps = 20000
+initial_rate = 5e-5
+
+
+
+[training.batcher]
+@batchers = "spacy.batch_by_padded.v1"
+discard_oversize = true
+size = 2000
+buffer = 256
+
+[initialize]
+vectors = null
diff --git a/DeReKo/spacy_train/basic_config_newOrth.cfg b/DeReKo/spacy_train/basic_config_newOrth.cfg
new file mode 100644
index 0000000..e35d4e3
--- /dev/null
+++ b/DeReKo/spacy_train/basic_config_newOrth.cfg
@@ -0,0 +1,81 @@
+[paths]
+train = "/home/daza/ids-projects/DeReKo/spacy_train/spacy_bin_corpora/Tiger.NewOrth.train.spacy"
+dev = "/home/daza/ids-projects/DeReKo/spacy_train/spacy_bin_corpora/Tiger.NewOrth.test.spacy"
+
+[system]
+gpu_allocator = "pytorch"
+
+
+[nlp]
+lang = "de"
+pipeline = ["transformer", "tagger"]
+tokenizer = {"@tokenizers": "spacy.Tokenizer.v1"}
+
+[components]
+
+[components.transformer]
+factory = "transformer"
+
+[components.transformer.model]
+@architectures = "spacy-transformers.TransformerModel.v1"
+name = "bert-base-german-cased"
+tokenizer_config = {"use_fast": true}
+
+[components.transformer.model.get_spans]
+@span_getters = "spacy-transformers.strided_spans.v1"
+window = 128
+stride = 96
+
+
+[components.tagger]
+factory = "tagger"
+
+[components.tagger.model]
+@architectures = "spacy.Tagger.v1"
+nO = null
+
+[components.tagger.model.tok2vec]
+@architectures = "spacy-transformers.TransformerListener.v1"
+grad_factor = 1.0
+
+[components.tagger.model.tok2vec.pooling]
+@layers = "reduce_mean.v1"
+
+
+
+[corpora]
+
+[corpora.train]
+@readers = "spacy.Corpus.v1"
+path = ${paths.train}
+max_length = 500
+
+[corpora.dev]
+@readers = "spacy.Corpus.v1"
+path = ${paths.dev}
+max_length = 0
+
+[training]
+accumulate_gradient = 3
+dev_corpus = "corpora.dev"
+train_corpus = "corpora.train"
+
+[training.optimizer]
+@optimizers = "Adam.v1"
+
+[training.optimizer.learn_rate]
+@schedules = "warmup_linear.v1"
+warmup_steps = 250
+total_steps = 20000
+initial_rate = 5e-5
+
+
+
+[training.batcher]
+@batchers = "spacy.batch_by_padded.v1"
+discard_oversize = true
+size = 2000
+buffer = 256
+
+[initialize]
+vectors = null
diff --git a/DeReKo/spacy_train/config_allOrth.cfg b/DeReKo/spacy_train/config_allOrth.cfg
new file mode 100644
index 0000000..cf3b09b
--- /dev/null
+++ b/DeReKo/spacy_train/config_allOrth.cfg
@@ -0,0 +1,123 @@
+[paths]
+train = "/vol/netapp/daza/datasets/TIGER_conll/data_splits/train/Tiger.ALL.Orth.train.spacy"
+dev = "/vol/netapp/daza/datasets/TIGER_conll/data_splits/test/Tiger.NewOrth.test.spacy"
+vectors = null
+init_tok2vec = null
+
+[system]
+gpu_allocator = "pytorch"
+seed = 0
+
+[nlp]
+lang = "de"
+pipeline = ["transformer","tagger"]
+tokenizer = {"@tokenizers":"spacy.Tokenizer.v1"}
+disabled = []
+before_creation = null
+after_creation = null
+after_pipeline_creation = null
+
+[components]
+
+[components.tagger]
+factory = "tagger"
+
+[components.tagger.model]
+@architectures = "spacy.Tagger.v1"
+nO = null
+
+[components.tagger.model.tok2vec]
+@architectures = "spacy-transformers.TransformerListener.v1"
+grad_factor = 1.0
+pooling = {"@layers":"reduce_mean.v1"}
+
+[components.transformer]
+factory = "transformer"
+max_batch_items = 4096
+set_extra_annotations = {"@annotation_setters":"spacy-transformers.null_annotation_setter.v1"}
+
+[components.transformer.model]
+@architectures = "spacy-transformers.TransformerModel.v1"
+name = "bert-base-german-cased"
+
+[components.transformer.model.get_spans]
+@span_getters = "spacy-transformers.strided_spans.v1"
+window = 128
+stride = 96
+
+[components.transformer.model.tokenizer_config]
+use_fast = true
+
+[corpora]
+
+[corpora.dev]
+@readers = "spacy.Corpus.v1"
+path = ${paths.dev}
+max_length = 0
+gold_preproc = false
+limit = 0
+augmenter = null
+
+[corpora.train]
+@readers = "spacy.Corpus.v1"
+path = ${paths.train}
+max_length = 500
+gold_preproc = false
+limit = 0
+augmenter = null
+
+[training]
+accumulate_gradient = 3
+dev_corpus = "corpora.dev"
+train_corpus = "corpora.train"
+seed = ${system.seed}
+gpu_allocator = ${system.gpu_allocator}
+dropout = 0.1
+patience = 1600
+max_epochs = 0
+max_steps = 20000
+eval_frequency = 200
+frozen_components = []
+before_to_disk = null
+
+[training.batcher]
+@batchers = "spacy.batch_by_padded.v1"
+discard_oversize = true
+size = 2000
+buffer = 256
+get_length = null
+
+[training.logger]
+@loggers = "spacy.ConsoleLogger.v1"
+progress_bar = false
+
+[training.optimizer]
+@optimizers = "Adam.v1"
+beta1 = 0.9
+beta2 = 0.999
+L2_is_weight_decay = true
+L2 = 0.01
+grad_clip = 1.0
+use_averages = false
+eps = 0.00000001
+
+[training.optimizer.learn_rate]
+@schedules = "warmup_linear.v1"
+warmup_steps = 250
+total_steps = 20000
+initial_rate = 0.00005
+
+[training.score_weights]
+tag_acc = 1.0
+
+[pretraining]
+
+[initialize]
+vectors = null
+init_tok2vec = ${paths.init_tok2vec}
+vocab_data = null
+lookups = null
+
+[initialize.components]
+
+[initialize.tokenizer]
\ No newline at end of file
diff --git a/DeReKo/spacy_train/config_newOrth.cfg b/DeReKo/spacy_train/config_newOrth.cfg
new file mode 100644
index 0000000..d701932
--- /dev/null
+++ b/DeReKo/spacy_train/config_newOrth.cfg
@@ -0,0 +1,123 @@
+[paths]
+train = "/home/daza/ids-projects/DeReKo/spacy_train/spacy_bin_corpora/Tiger.NewOrth.train.spacy"
+dev = "/home/daza/ids-projects/DeReKo/spacy_train/spacy_bin_corpora/Tiger.NewOrth.test.spacy"
+vectors = null
+init_tok2vec = null
+
+[system]
+gpu_allocator = "pytorch"
+seed = 0
+
+[nlp]
+lang = "de"
+pipeline = ["transformer","tagger"]
+tokenizer = {"@tokenizers":"spacy.Tokenizer.v1"}
+disabled = []
+before_creation = null
+after_creation = null
+after_pipeline_creation = null
+
+[components]
+
+[components.tagger]
+factory = "tagger"
+
+[components.tagger.model]
+@architectures = "spacy.Tagger.v1"
+nO = null
+
+[components.tagger.model.tok2vec]
+@architectures = "spacy-transformers.TransformerListener.v1"
+grad_factor = 1.0
+pooling = {"@layers":"reduce_mean.v1"}
+
+[components.transformer]
+factory = "transformer"
+max_batch_items = 4096
+set_extra_annotations = {"@annotation_setters":"spacy-transformers.null_annotation_setter.v1"}
+
+[components.transformer.model]
+@architectures = "spacy-transformers.TransformerModel.v1"
+name = "bert-base-german-cased"
+
+[components.transformer.model.get_spans]
+@span_getters = "spacy-transformers.strided_spans.v1"
+window = 128
+stride = 96
+
+[components.transformer.model.tokenizer_config]
+use_fast = true
+
+[corpora]
+
+[corpora.dev]
+@readers = "spacy.Corpus.v1"
+path = ${paths.dev}
+max_length = 0
+gold_preproc = false
+limit = 0
+augmenter = null
+
+[corpora.train]
+@readers = "spacy.Corpus.v1"
+path = ${paths.train}
+max_length = 500
+gold_preproc = false
+limit = 0
+augmenter = null
+
+[training]
+accumulate_gradient = 3
+dev_corpus = "corpora.dev"
+train_corpus = "corpora.train"
+seed = ${system.seed}
+gpu_allocator = ${system.gpu_allocator}
+dropout = 0.1
+patience = 1600
+max_epochs = 0
+max_steps = 20000
+eval_frequency = 200
+frozen_components = []
+before_to_disk = null
+
+[training.batcher]
+@batchers = "spacy.batch_by_padded.v1"
+discard_oversize = true
+size = 2000
+buffer = 256
+get_length = null
+
+[training.logger]
+@loggers = "spacy.ConsoleLogger.v1"
+progress_bar = false
+
+[training.optimizer]
+@optimizers = "Adam.v1"
+beta1 = 0.9
+beta2 = 0.999
+L2_is_weight_decay = true
+L2 = 0.01
+grad_clip = 1.0
+use_averages = false
+eps = 0.00000001
+
+[training.optimizer.learn_rate]
+@schedules = "warmup_linear.v1"
+warmup_steps = 250
+total_steps = 20000
+initial_rate = 0.00005
+
+[training.score_weights]
+tag_acc = 1.0
+
+[pretraining]
+
+[initialize]
+vectors = null
+init_tok2vec = ${paths.init_tok2vec}
+vocab_data = null
+lookups = null
+
+[initialize.components]
+
+[initialize.tokenizer]
\ No newline at end of file
diff --git a/DeReKo/spacy_train/conll2spacy.py b/DeReKo/spacy_train/conll2spacy.py
new file mode 100644
index 0000000..9be14ab
--- /dev/null
+++ b/DeReKo/spacy_train/conll2spacy.py
@@ -0,0 +1,85 @@
+import argparse, time, json
+import my_utils.file_utils as fu
+from lib.CoNLL_Annotation import get_token_type
+
+if __name__ == "__main__":
+	"""
+	
+	--- TIGER NEW Orthography ---
+		python DeReKo/spacy_train/conll2spacy.py --corpus_name TigerNew --gld_token_type CoNLLUP_Token \
+			-i /home/daza/datasets/TIGER_conll/data_splits/train/Tiger.NewOrth.train.conll \
+			-o DeReKo/spacy_train/Tiger.NewOrth.train.json \
+			-t DeReKo/spacy_train/Tiger.NewOrth.train.txt
+		
+		python DeReKo/spacy_train/conll2spacy.py --corpus_name TigerNew --gld_token_type CoNLLUP_Token \
+			-i /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.NewOrth.test.conll \
+			-o DeReKo/spacy_train/Tiger.NewOrth.test.json \
+			-t DeReKo/spacy_train/Tiger.NewOrth.test.txt
+			
+	--- TIGER NEW + OLD Orthography ---
+		cat Tiger.OldOrth.train.conll Tiger.NewOrth.train.conll > Tiger.ALL.Orth.train.conll
+		cat Tiger.OldOrth.test.conll Tiger.NewOrth.test.conll > Tiger.ALL.Orth.test.conll
+	
+		python DeReKo/spacy_train/conll2spacy.py --corpus_name TigerALL --gld_token_type CoNLLUP_Token \
+			-i /home/daza/datasets/TIGER_conll/data_splits/train/Tiger.ALL.Orth.train.conll \
+			-o /home/daza/datasets/TIGER_conll/data_splits/train/Tiger.ALL.Orth.train.json \
+			-t /home/daza/datasets/TIGER_conll/data_splits/train/Tiger.ALL.Orth.train.txt
+		
+		python DeReKo/spacy_train/conll2spacy.py --corpus_name TigerALL --gld_token_type CoNLLUP_Token \
+			-i /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.ALL.Orth.test.conll \
+			-o /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.ALL.Orth.test.json \
+			-t /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.ALL.Orth.test.txt
+			
+	"""
+	
+	parser = argparse.ArgumentParser()
+	parser.add_argument("-i", "--input_file", help="Input Corpus", required=True)
+	parser.add_argument("-n", "--corpus_name", help="Corpus Name", default="Corpus")
+	parser.add_argument("-o", "--output_file", help="File where the Predictions will be saved", required=True)
+	parser.add_argument("-t", "--text_file", help="Output Plain Text File", default=None)
+	parser.add_argument("-gtt", "--gld_token_type", help="CoNLL Format of the Gold Data", default="CoNLL09_Token")
+	parser.add_argument("-c", "--comment_str", help="CoNLL Format of comentaries inside the file", default="#")
+	args = parser.parse_args()
+	
+	file_has_next, chunk_ix = True, 0
+	CHUNK_SIZE = 60000
+	
+	write_out = open(args.output_file, "w")
+	if args.text_file: write_plain = open(args.text_file, "w")
+	
+	if ".gz" == args.input_file[-3:]:
+		in_file = fu.expand_file(args.input_file)
+	else:
+		in_file = args.input_file
+	
+	start = time.time()
+	total_processed_sents = 0
+	line_generator = fu.file_generator(in_file)
+	while file_has_next:
+		annos, file_has_next = fu.get_file_annos_chunk(line_generator, chunk_size=CHUNK_SIZE, 		token_class=get_token_type(args.gld_token_type), comment_str=args.comment_str)
+		if len(annos) == 0: break
+		total_processed_sents += len(annos)
+		print(f"Already processed {total_processed_sents} sentences...")
+		spacy_docs = []
+		for anno_id, anno in enumerate(annos):
+			plain_text, token_objs = [], []
+			for ix, tok in enumerate(anno.tokens):
+				token_objs.append({"id": ix, "orth":tok.word, "tag": tok.pos_tag})
+				plain_text.append(tok.word)
+			plain_text_str = " ".join(plain_text)
+			sent_obj = {
+				"id": anno_id,
+				"meta": anno.metadata,
+				"paragraphs": [{
+					"raw": plain_text_str,
+					"sentences": [{
+						"tokens": token_objs
+					}]	
+				}]
+			}
+			spacy_docs.append(sent_obj)
+			if args.text_file:
+				write_plain.write(plain_text_str + "\n")
+		write_out.write(json.dumps(spacy_docs))
+	end = time.time()
+	print(f"Processing {args.corpus_name} took {(end - start)} seconds!")
\ No newline at end of file
diff --git a/DeReKo/spacy_train/custom_spacy_dereko.py b/DeReKo/spacy_train/custom_spacy_dereko.py
new file mode 100644
index 0000000..4b35282
--- /dev/null
+++ b/DeReKo/spacy_train/custom_spacy_dereko.py
@@ -0,0 +1,17 @@
+import spacy
+ 
+ORIG_DEREKO_VECS = "/export/netapp/kupietz/embeddings/dereko-2020-ii-alpha.all.txt.gz"
+
+# Made with command (2.x): python -m spacy init-model de de_fastext_vectors --vectors-loc dereko_vectors/cc.de.300.vec.gz
+# Made with command (3.x): python -m spacy init vectors de dereko_vectors/dereko-2020-ii-alpha.all.txt dereko_vectors/ --name de_dereko_2020
+VECTORS  = "lib/dereko_vectors" 
+
+
+nlp_dereko = spacy.load(VECTORS)
+doc1 = nlp_dereko("`` Ross Perot wäre vielleicht ein prächtiger Diktator ''")
+doc2 = nlp_dereko("Konzernchefs lehnen den Milliardär als US-Präsidenten ab")
+doc3 = nlp_dereko("Texaner gibt nur vage Auskunft über seine Wirtschaftspolitik")
+print(doc1.similarity(doc2))
+print(doc1.similarity(doc3))
+
+
diff --git a/DeReKo/spacy_train/custom_spacy_tagger_2x.py b/DeReKo/spacy_train/custom_spacy_tagger_2x.py
new file mode 100644
index 0000000..5e529b5
--- /dev/null
+++ b/DeReKo/spacy_train/custom_spacy_tagger_2x.py
@@ -0,0 +1,100 @@
+#!/usr/bin/env python
+# coding: utf8
+"""
+A simple example for training a part-of-speech tagger with a custom tag map.
+To allow us to update the tag map with our custom one, this example starts off
+with a blank Language class and modifies its defaults. For more details, see
+the documentation:
+* Training: https://spacy.io/usage/training
+* POS Tagging: https://spacy.io/usage/linguistic-features#pos-tagging
+Compatible with: spaCy v2.0.0+
+Last tested with: v2.1.0
+"""
+from __future__ import unicode_literals, print_function
+
+import plac
+import random
+from pathlib import Path
+import spacy
+from spacy.util import minibatch, compounding
+
+
+# You need to define a mapping from your data's part-of-speech tag names to the
+# Universal Part-of-Speech tag set, as spaCy includes an enum of these tags.
+# See here for the Universal Tag Set:
+# http://universaldependencies.github.io/docs/u/pos/index.html
+# You may also specify morphological features for your tags, from the universal
+# scheme.
+TAG_MAP = {"N": {"pos": "NOUN"}, "V": {"pos": "VERB"}, "J": {"pos": "ADJ"}}
+
+# Usually you'll read this in, of course. Data formats vary. Ensure your
+# strings are unicode and that the number of tags assigned matches spaCy's
+# tokenization. If not, you can always add a 'words' key to the annotations
+# that specifies the gold-standard tokenization, e.g.:
+# ("Eatblueham", {'words': ['Eat', 'blue', 'ham'], 'tags': ['V', 'J', 'N']})
+TRAIN_DATA = [
+	("I like green eggs", {"tags": ["N", "V", "J", "N"]}),
+	("Eat blue ham", {"tags": ["V", "J", "N"]}),
+]
+
+
+@plac.annotations(
+	lang=("ISO Code of language to use", "option", "l", str),
+	output_dir=("Optional output directory", "option", "o", Path),
+	n_iter=("Number of training iterations", "option", "n", int),
+)
+def main(lang="en", output_dir=None, n_iter=25):
+	"""Create a new model, set up the pipeline and train the tagger. In order to
+	train the tagger with a custom tag map, we're creating a new Language
+	instance with a custom vocab.
+	"""
+	nlp = spacy.blank(lang)
+	# add the tagger to the pipeline
+	# nlp.create_pipe works for built-ins that are registered with spaCy
+	tagger = nlp.create_pipe("tagger")
+	# Add the tags. This needs to be done before you start training.
+	for tag, values in TAG_MAP.items():
+		tagger.add_label(tag, values)
+	nlp.add_pipe(tagger)
+
+	optimizer = nlp.begin_training()
+	for i in range(n_iter):
+		random.shuffle(TRAIN_DATA)
+		losses = {}
+		# batch up the examples using spaCy's minibatch
+		batches = minibatch(TRAIN_DATA, size=compounding(4.0, 32.0, 1.001))
+		for batch in batches:
+			texts, annotations = zip(*batch)
+			nlp.update(texts, annotations, sgd=optimizer, losses=losses)
+		print("Losses", losses)
+
+	# test the trained model
+	test_text = "I like blue eggs"
+	doc = nlp(test_text)
+	print("Tags", [(t.text, t.tag_, t.pos_) for t in doc])
+
+	# save model to output directory
+	if output_dir is not None:
+		output_dir = Path(output_dir)
+		if not output_dir.exists():
+			output_dir.mkdir()
+		nlp.to_disk(output_dir)
+		print("Saved model to", output_dir)
+
+		# test the save model
+		print("Loading from", output_dir)
+		nlp2 = spacy.load(output_dir)
+		doc = nlp2(test_text)
+		print("Tags", [(t.text, t.tag_, t.pos_) for t in doc])
+
+
+if __name__ == "__main__":
+	plac.call(main)
+
+	# Expected output:
+	# [
+	#   ('I', 'N', 'NOUN'),
+	#   ('like', 'V', 'VERB'),
+	#   ('blue', 'J', 'ADJ'),
+	#   ('eggs', 'N', 'NOUN')
+	# ]
\ No newline at end of file
diff --git a/DeReKo/spacy_train/custom_spacy_tagger_3x.py b/DeReKo/spacy_train/custom_spacy_tagger_3x.py
new file mode 100644
index 0000000..45a76c9
--- /dev/null
+++ b/DeReKo/spacy_train/custom_spacy_tagger_3x.py
@@ -0,0 +1,4 @@
+import spacy
+nlp = spacy.load("de_dep_news_trf")
+doc = nlp("Das ist ein Satz.")
+print(doc)
\ No newline at end of file
diff --git a/DeReKo/tutorial_examples/fileCount.txt b/DeReKo/tutorial_examples/fileCount.txt
deleted file mode 100644
index 71de4b6..0000000
--- a/DeReKo/tutorial_examples/fileCount.txt
+++ /dev/null
@@ -1,330 +0,0 @@
-s 73
-z 67
-nun 30
-n 29
-hdz 28
-m 28
-p 28
-u 28
-nzf 26
-o 25
-e 24
-i 24
-rhz 24
-ste 24
-k 23
-l 23
-mpo 23
-was 23
-msp 22
-v 22
-ge 21
-haa 21
-sol 21
-w 21
-x 21
-baz 20
-bku 20
-boz 20
-bze 20
-dec 20
-dol 20
-flt 20
-fnp 20
-foc 20
-fom 20
-gaz 20
-hab 20
-ksa 20
-lru 20
-lvz 20
-maz 20
-mze 20
-nku 20
-nlz 20
-nvb 20
-nzz 20
-prf 20
-r 20
-sbz 20
-sku 20
-sze 20
-t 20
-tas 20
-tsp 20
-tvf 20
-wiz 20
-fmt 19
-kxp 19
-pnp 19
-rpo 19
-sta 19
-wku 19
-a 18
-abo 18
-kru 18
-kur 18
-mtk 18
-new 18
-nuz 18
-nvt 18
-nzs 18
-wor 18
-wtb 18
-aaz 17
-bdz 17
-bun 17
-hfz 17
-nwe 17
-stz 17
-wbl 17
-aan 16
-beo 16
-bli 16
-giz 16
-hhz 16
-kaz 16
-lan 16
-nws 16
-otz 16
-sbl 16
-svz 16
-tha 16
-tlz 16
-uan 16
-azm 15
-bez 15
-frt 15
-hmp 15
-pnn 15
-wwo 15
-bsz 14
-bue 14
-gtb 14
-soz 14
-vdi 14
-haz 13
-hrz 13
-laz 13
-mag 13
-non 13
-nwz 13
-ohz 13
-rga 13
-stn 13
-swp 13
-ltb 12
-soa 12
-b 11
-brg 11
-bru 11
-ctb 11
-geo 11
-hst 11
-ktz 11
-weo 11
-wez 11
-zca 11
-jue 10
-zge 10
-zwi 10
-brz 9
-bvz 9
-bzg 9
-dki 9
-fpc 9
-saz 9
-scz 9
-bkr 8
-bna 8
-eze 8
-lit 8
-mep 8
-noz 8
-wfb 8
-bmo 7
-bwa 7
-daz 7
-dnn 7
-dpr 7
-hat 7
-kir 7
-ngz 7
-nnn 7
-oaz 7
-ovz 7
-ph 7
-rvz 7
-sct 7
-smp 7
-vbw 7
-vzs 7
-c 6
-hkr 6
-htb 6
-hzz 6
-lhz 6
-mib 6
-muv 6
-nnp 6
-rln 6
-rsw 6
-stb 6
-tnz 6
-alz 5
-art 5
-bee 5
-brw 5
-chk 5
-cou 5
-dak 5
-dog 5
-edf 5
-eft 5
-elf 5
-elt 5
-ett 5
-eut 5
-fis 5
-gal 5
-ges 5
-gng 5
-gob 5
-gsp 5
-gta 5
-lah 5
-nbk 5
-ndo 5
-npr 5
-nwt 5
-paz 5
-pmm 5
-rue 5
-scw 5
-tvd 5
-zcw 5
-h 4
-mme 4
-neo 4
-now 4
-osz 4
-abm 3
-aez 3
-afz 3
-agz 3
-aho 3
-auf 3
-auh 3
-bei 3
-bil 3
-bot 3
-cap 3
-cid 3
-cio 3
-cit 3
-ct 3
-dae 3
-dbt 3
-dsz 3
-dtz 3
-dvz 3
-dww 3
-elo 3
-ene 3
-epr 3
-euw 3
-fuw 3
-ggt 3
-gwp 3
-hgz 3
-hor 3
-imw 3
-imz 3
-itb 3
-itt 3
-ix 3
-kfz 3
-khh 3
-lab 3
-lmd 3
-lmz 3
-log 3
-mdr 3
-mid 3
-mt 3
-mut 3
-mwo 3
-neu 3
-pco 3
-pha 3
-rbs 3
-rlh 3
-sch 3
-scv 3
-spz 3
-tai 3
-tet 3
-tew 3
-thb 3
-toz 3
-tre 3
-tru 3
-vru 3
-vsw 3
-bla 2
-brm 2
-bup 2
-dib 2
-ein 2
-fra 2
-hau 2
-hzs 2
-hzw 2
-stg 2
-tbz 2
-bio-pub 1
-dgl 1
-erk 1
-fsp-pub 1
-goe 1
-gr 1
-gri 1
-hna 1
-kic 1
-kjl 1
-kn 1
-ksp 1
-lim 1
-ln 1
-loz-div-pub 1
-loz-wam 1
-meg 1
-mew 1
-mld 1
-mwa 1
-pp-bb 1
-pp-be 1
-pp-br 1
-pp-bt 1
-pp-bw 1
-pp-by 1
-pp-hb 1
-pp-he 1
-pp-hh 1
-pp-mv 1
-pp-ni 1
-pp-no 1
-pp-nw 1
-pp-rp 1
-pp-sh 1
-pp-sl 1
-pp-sn 1
-pp-st 1
-pp-th 1
-rn 1
-sid 1
-spk 1
-wkb 1
-wkd 1
-
-TOTAL: 3173 Files!
\ No newline at end of file
diff --git a/DeReKo/tutorial_examples/mini_test_dereko.conllu b/DeReKo/tutorial_examples/mini_test_dereko.conllu
deleted file mode 100644
index 18a1501..0000000
--- a/DeReKo/tutorial_examples/mini_test_dereko.conllu
+++ /dev/null
@@ -1,1000 +0,0 @@
-###C: foundry = tree_tagger
-###C: filename = TAS01/JAN/00001/tree_tagger/morpho.xml  
-###C: text_id = TAS01_JAN.00001
-###C: start_offsets = 0 0 1 15 17 22 29 35 43 50 52 57 61 67 70 73 83 84 98 100 104 113 118 126 130 134 149 154 158 172 179 182 191 198 209 216 228
-###C: end_offsets = 229 1 15 16 21 28 34 42 49 51 56 60 66 69 72 82 84 98 99 103 112 116 125 129 133 148 153 157 171 178 181 189 197 208 215 228 229
-1	'	"	$(	$(	_	_	_	_	1.000000
-2	Highspeed-Netz	--	NN	NN	_	_	_	_	1.000000
-3	'	"	$(	$(	_	_	_	_	1.000000
-4	geht	gehen	VVFIN	VVFIN	_	_	_	_	0.999851
-5	wieder	wieder	ADV	ADV	_	_	_	_	0.999653
-6	Panne	Panne	NN	NN	_	_	_	_	1.000000
-7	behoben	beheben	VVFIN	VVFIN	_	_	_	_	0.723081
-8	ZÜRICH	Zürich	NE	NE	_	_	_	_	1.000000
-9	-	-	$(	$(	_	_	_	_	1.000000
-10	Nach	nach	APPR	APPR	_	_	_	_	0.993116
-11	der	die	ART	ART	_	_	_	_	0.999979
-12	Panne	Panne	NN	NN	_	_	_	_	1.000000
-13	im	in	APPRART	APPRART	_	_	_	_	1.000000
-14	so	so	ADV	ADV	_	_	_	_	0.999937
-15	genannten	genannt	ADJA	ADJA	_	_	_	_	1.000000
-16	'	"	$(	$(	_	_	_	_	1.000000
-17	Highspeed-Netz	--	NN	NN	_	_	_	_	1.000000
-18	'	"	$(	$(	_	_	_	_	1.000000
-19	der	die	ART	ART	_	_	_	_	0.966318
-20	Cablecom	--	NE	NE	_	_	_	_	0.984954
-21	vom	von	APPRART	APPRART	_	_	_	_	1.000000
-22	Freitag	Freitag	NN	NN	_	_	_	_	0.990459
-23	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-24	der	die	ART	ART	_	_	_	_	0.999804
-25	Internetzugang	Internetzugang	NN	NN	_	_	_	_	1.000000
-26	über	über	APPR	APPR	_	_	_	_	0.999907
-27	das	die	ART	ART	_	_	_	_	0.993720
-28	entsprechende	entsprechend	ADJA	ADJA	_	_	_	_	1.000000
-29	System	System	NN	NN	_	_	_	_	1.000000
-30	am	an	APPRART	APPRART	_	_	_	_	0.999838
-31	Samstag	Samstag	NN	NN	_	_	_	_	1.000000
-32	wieder	wieder	ADV	ADV	_	_	_	_	0.999927
-33	weitgehend	weitgehend	ADJD	ADJD	_	_	_	_	1.000000
-34	normal	normal	ADJD	ADJD	_	_	_	_	1.000000
-35	funktioniert	funktionieren	VVPP	VVPP	_	_	_	_	0.551329
-36	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 230 230 239 245 248 250 253 261 266 270 282 287 290 294 304 308 315 319 323 335 347 354 360
-###C: end_offsets = 361 238 244 248 249 252 260 265 269 281 286 289 293 303 307 314 318 322 334 346 353 360 361
-1	Cablecom	--	NE	NE	_	_	_	_	0.998928
-2	prüft	prüfen	VVFIN	VVFIN	_	_	_	_	1.000000
-3	nun	nun	ADV	ADV	_	_	_	_	0.999989
-4	,	,	$,	$,	_	_	_	_	1.000000
-5	in	in	APPR	APPR	_	_	_	_	1.000000
-6	welcher	welche	PIS	PIS	_	_	_	_	0.978436
-7	Form	Form	NN	NN	_	_	_	_	0.999692
-8	die	die	ART	ART	_	_	_	_	0.999693
-9	betroffenen	betroffen	ADJA	ADJA	_	_	_	_	1.000000
-10	rund	rund	ADV	ADV	_	_	_	_	0.999694
-11	12	12	CARD	CARD	_	_	_	_	1.000000
-12	000	@card@	CARD	CARD	_	_	_	_	0.994095
-13	Kundinnen	Kundin	NN	NN	_	_	_	_	1.000000
-14	und	und	KON	KON	_	_	_	_	1.000000
-15	Kunden	Kunde	NN	NN	_	_	_	_	0.989826
-16	für	für	APPR	APPR	_	_	_	_	1.000000
-17	den	die	ART	ART	_	_	_	_	0.999974
-18	Teilausfall	Teilausfall	NN	NN	_	_	_	_	1.000000
-19	entschädigt	entschädigen	VVPP	VVPP	_	_	_	_	0.999998
-20	werden	werden	VAINF	VAINF	_	_	_	_	0.999922
-21	können	können	VMFIN	VMFIN	_	_	_	_	0.997080
-22	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 362 362 366 374 388 402 406 409 413
-###C: end_offsets = 414 365 373 387 401 405 408 413 414
-1	Die	die	ART	ART	_	_	_	_	0.998436
-2	Prüfung	Prüfung	NN	NN	_	_	_	_	1.000000
-3	verschiedener	verschieden	ADJA	ADJA	_	_	_	_	0.991547
-4	Möglichkeiten	Möglichkeit	NN	NN	_	_	_	_	1.000000
-5	sei	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-6	im	in	APPRART	APPRART	_	_	_	_	1.000000
-7	Gang	Gang	NN	NN	_	_	_	_	1.000000
-8	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: filename = TAS01/JAN/00002/tree_tagger/morpho.xml  
-###C: text_id = TAS01_JAN.00002
-###C: start_offsets = 0 0 5 14 20 24 28 36 43 47 58 76 83 87 90 97 109 116 118 123 132 139 145 153 159 166 170 178 180 184 191 196 203 217
-###C: end_offsets = 218 4 13 19 23 27 35 42 46 57 75 82 86 89 96 108 115 117 122 131 138 144 152 158 165 169 178 179 182 190 195 202 217 218
-1	Timo	Timo	NE	NE	_	_	_	_	1.000000
-2	Helbling	--	NE	NE	_	_	_	_	0.998979
-3	kehrt	kehrt	PTKVZ	PTKVZ	_	_	_	_	0.797658
-4	von	von	APPR	APPR	_	_	_	_	0.999850
-5	der	die	ART	ART	_	_	_	_	0.999969
-6	U-20-WM	--	NN	NN	_	_	_	_	0.826878
-7	zurück	zurück	PTKVZ	PTKVZ	_	_	_	_	0.896310
-8	ins	in	APPRART	APPRART	_	_	_	_	1.000000
-9	kanadische	kanadisch	ADJA	ADJA	_	_	_	_	1.000000
-10	Junioreneishockey	Junioreneishockey	NN	NN	_	_	_	_	1.000000
-11	Prügel	Prügel	NN	NN	_	_	_	_	1.000000
-12	für	für	APPR	APPR	_	_	_	_	1.000000
-13	90	90	CARD	CARD	_	_	_	_	1.000000
-14	Dollar	Dollar	NN	NN	_	_	_	_	1.000000
-15	Taschengeld	Taschengeld	NN	NN	_	_	_	_	1.000000
-16	MOSKAU	Moskau	NE	NE	_	_	_	_	1.000000
-17	-	-	$(	$(	_	_	_	_	1.000000
-18	Timo	Timo	NE	NE	_	_	_	_	1.000000
-19	Helbling	--	NE	NE	_	_	_	_	0.998972
-20	steigt	steigen	VVFIN	VVFIN	_	_	_	_	1.000000
-21	heute	heute	ADV	ADV	_	_	_	_	0.999998
-22	Sonntag	Sonntag	NN	NN	_	_	_	_	0.847388
-23	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-24	ungern	ungern	ADV	ADV	_	_	_	_	1.000000
-25	ins	in	APPRART	APPRART	_	_	_	_	1.000000
-26	Flugzeug	Flugzeug	NN	NN	_	_	_	_	1.000000
-27	,	,	$,	$,	_	_	_	_	1.000000
-28	um	um	KOUI	KOUI	_	_	_	_	0.975073
-29	wieder	wieder	ADV	ADV	_	_	_	_	0.999094
-30	nach	nach	APPR	APPR	_	_	_	_	0.996404
-31	Kanada	Kanada	NE	NE	_	_	_	_	1.000000
-32	zurückzukehren	zurückkehren	VVIZU	VVIZU	_	_	_	_	1.000000
-33	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 219 219 223 235 238 245 249 253 257 262 269 280 282 287 292 297 304 307 314 318 321 327 339 346 348 349 356 363 366 374 379 382 390 391
-###C: end_offsets = 392 222 234 237 244 248 252 256 261 268 280 281 286 291 296 303 306 313 317 320 326 338 346 347 349 355 362 365 373 378 381 390 391 392
-1	Die	die	ART	ART	_	_	_	_	0.994760
-2	Junioren-WM	Junioren-WM	NE	NE	_	_	_	_	1.000000
-3	in	in	APPR	APPR	_	_	_	_	1.000000
-4	Moskau	Moskau	NE	NE	_	_	_	_	1.000000
-5	war	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-6	für	für	APPR	APPR	_	_	_	_	1.000000
-7	ihn	er	PPER	PPER	_	_	_	_	1.000000
-8	eine	eine	ART	ART	_	_	_	_	0.999624
-9	schöne	schön	ADJA	ADJA	_	_	_	_	1.000000
-10	Abwechslung	Abwechslung	NN	NN	_	_	_	_	1.000000
-11	,	,	$,	$,	_	_	_	_	1.000000
-12	doch	doch	KON	KON	_	_	_	_	0.512407
-13	nach	nach	APPR	APPR	_	_	_	_	0.976726
-14	drei	drei	CARD	CARD	_	_	_	_	1.000000
-15	Wochen	Woche	NN	NN	_	_	_	_	1.000000
-16	in	in	APPR	APPR	_	_	_	_	1.000000
-17	Hotels	Hotel	NN	NN	_	_	_	_	1.000000
-18	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-19	er	er	PPER	PPER	_	_	_	_	1.000000
-20	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-21	unglücklich	unglücklich	ADJD	ADJD	_	_	_	_	1.000000
-22	darüber	darüber	PAV	PAV	_	_	_	_	0.995774
-23	,	,	$,	$,	_	_	_	_	1.000000
-24	"	"	$(	$(	_	_	_	_	1.000000
-25	wieder	wieder	ADV	ADV	_	_	_	_	0.999997
-26	einmal	einmal	ADV	ADV	_	_	_	_	1.000000
-27	im	in	APPRART	APPRART	_	_	_	_	1.000000
-28	eigenen	eigen	ADJA	ADJA	_	_	_	_	1.000000
-29	Bett	Bett	NN	NN	_	_	_	_	1.000000
-30	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999628
-31	schlafen	schlafen	VVINF	VVINF	_	_	_	_	0.999981
-32	"	"	$(	$(	_	_	_	_	1.000000
-33	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 393 393 397 404 409 413 417 421 425 430 434 441 452 454 458 462 465 477 485 497 500
-###C: end_offsets = 501 396 403 408 412 416 420 424 429 433 440 452 453 457 461 464 476 484 496 500 501
-1	Das	die	ART	ART	_	_	_	_	0.852618
-2	eigene	eigen	ADJA	ADJA	_	_	_	_	1.000000
-3	Bett	Bett	NN	NN	_	_	_	_	1.000000
-4	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-5	für	für	APPR	APPR	_	_	_	_	1.000000
-6	ihn	er	PPER	PPER	_	_	_	_	1.000000
-7	das	die	ART	ART	_	_	_	_	0.984922
-8	Bett	Bett	NN	NN	_	_	_	_	1.000000
-9	bei	bei	APPR	APPR	_	_	_	_	0.999898
-10	seiner	sein	PPOSAT	PPOSAT	_	_	_	_	0.999998
-11	Gastfamilie	Gastfamilie	NN	NN	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	die	die	PRELS	PRELS	_	_	_	_	0.999621
-14	ihn	er	PPER	PPER	_	_	_	_	1.000000
-15	im	in	APPRART	APPRART	_	_	_	_	1.000000
-16	kanadischen	kanadisch	ADJA	ADJA	_	_	_	_	1.000000
-17	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-18	aufgenommen	aufnehmen	VVPP	VVPP	_	_	_	_	0.995475
-19	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-20	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 502 502 506 514 517 521 526 534 546 559 561 565 569 575 578 592 602 608 610 615 625 630 634 647 660
-###C: end_offsets = 661 505 513 516 520 525 533 545 559 560 564 568 574 577 591 601 608 609 614 624 629 633 646 660 661
-1	Die	die	ART	ART	_	_	_	_	0.998436
-2	Spieler	Spieler	NN	NN	_	_	_	_	1.000000
-3	in	in	APPR	APPR	_	_	_	_	1.000000
-4	den	die	ART	ART	_	_	_	_	0.999466
-5	drei	drei	CARD	CARD	_	_	_	_	1.000000
-6	grossen	groß	ADJA	ADJA	_	_	_	_	1.000000
-7	kanadischen	kanadisch	ADJA	ADJA	_	_	_	_	1.000000
-8	Juniorenligen	Juniorenliga	NN	NN	_	_	_	_	1.000000
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	die	die	PRELS	PRELS	_	_	_	_	0.992435
-11	den	die	ART	ART	_	_	_	_	0.999732
-12	Klubs	Klub	NN	NN	_	_	_	_	1.000000
-13	im	in	APPRART	APPRART	_	_	_	_	1.000000
-14	Juniorendraft	--	NN	NN	_	_	_	_	0.998655
-15	zugeteilt	zuteilen	VVPP	VVPP	_	_	_	_	1.000000
-16	werden	werden	VAINF	VAINF	_	_	_	_	0.973945
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	sind	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-19	praktisch	praktisch	ADJD	ADJD	_	_	_	_	1.000000
-20	alle	alle	PIS	PIS	_	_	_	_	0.861349
-21	bei	bei	APPR	APPR	_	_	_	_	0.997633
-22	Gastfamilien	Gastfamilie	NN	NN	_	_	_	_	1.000000
-23	untergebracht	unterbringen	VVPP	VVPP	_	_	_	_	1.000000
-24	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 662 662 663 668 672 675 680 682 688 693 702 713 717 721 727 729 730 735 740 745 754 759 765
-###C: end_offsets = 766 663 667 671 674 680 681 687 692 701 712 716 720 727 728 730 734 739 744 753 758 765 766
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Fast	fast	ADV	ADV	_	_	_	_	1.000000
-3	wie	wie	KOKOM	KOKOM	_	_	_	_	0.965767
-4	zu	zu	APPR	APPR	_	_	_	_	0.997617
-5	Hause	Haus	NN	NN	_	_	_	_	1.000000
-6	"	"	$(	$(	_	_	_	_	1.000000
-7	fühlt	fühlen	VVFIN	VVFIN	_	_	_	_	0.998961
-8	sich	sich	PRF	PRF	_	_	_	_	1.000000
-9	Helbling	--	NE	NE	_	_	_	_	0.993286
-10	inzwischen	inzwischen	ADV	ADV	_	_	_	_	1.000000
-11	bei	bei	APPR	APPR	_	_	_	_	0.999705
-12	der	die	ART	ART	_	_	_	_	0.989485
-13	seinen	sein	PPOSAT	PPOSAT	_	_	_	_	0.997144
-14	,	,	$,	$,	_	_	_	_	1.000000
-15	"	"	$(	$(	_	_	_	_	1.000000
-16	alle	alle	PIAT	PIAT	_	_	_	_	0.758817
-17	sind	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-18	dort	dort	ADV	ADV	_	_	_	_	1.000000
-19	verrückt	verrückt	ADJD	ADJD	_	_	_	_	0.661730
-20	nach	nach	APPR	APPR	_	_	_	_	0.994375
-21	Hockey	Hockey	NN	NN	_	_	_	_	1.000000
-22	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 766 766 768 772 783 793 798 802 808 821 829 833 840 844 849 856 861 863 865 869 874 878 882 888 893 902
-###C: end_offsets = 903 767 771 782 792 797 801 807 820 828 832 839 843 848 855 860 863 864 868 873 877 881 887 892 902 903
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Der	die	ART	ART	_	_	_	_	0.993481
-3	19-jährige	19-jährig	ADJA	ADJA	_	_	_	_	1.000000
-4	Schweizer	Schweizer	NN	NN	_	_	_	_	0.991990
-5	lebt	leben	VVFIN	VVFIN	_	_	_	_	0.999998
-6	bei	bei	APPR	APPR	_	_	_	_	0.999863
-7	einer	eine	ART	ART	_	_	_	_	0.996882
-8	dreiköpfigen	dreiköpfig	ADJA	ADJA	_	_	_	_	1.000000
-9	Familie	Familie	NN	NN	_	_	_	_	1.000000
-10	mit	mit	APPR	APPR	_	_	_	_	0.999017
-11	Mutter	Mutter	NN	NN	_	_	_	_	1.000000
-12	und	und	KON	KON	_	_	_	_	1.000000
-13	zwei	zwei	CARD	CARD	_	_	_	_	1.000000
-14	Söhnen	Sohn	NN	NN	_	_	_	_	1.000000
-15	über	über	APPR	APPR	_	_	_	_	0.999948
-16	20	20	CARD	CARD	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	der	die	ART	ART	_	_	_	_	0.951657
-19	Mann	Mann	NN	NN	_	_	_	_	0.989207
-20	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-21	vor	vor	APPR	APPR	_	_	_	_	0.977751
-22	einem	eine	ART	ART	_	_	_	_	0.998913
-23	Jahr	Jahr	NN	NN	_	_	_	_	1.000000
-24	gestorben	sterben	VVPP	VVPP	_	_	_	_	1.000000
-25	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 904 904 905 916 922 926 931 939 941 944 951 957 961 968 977 980 986 987 989 998 1003 1011
-###C: end_offsets = 1012 905 915 921 925 930 939 940 943 950 956 960 967 976 979 986 987 988 997 1002 1011 1012
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Vielleicht	vielleicht	ADV	ADV	_	_	_	_	1.000000
-3	haben	haben	VAFIN	VAFIN	_	_	_	_	0.999887
-4	sie	sie	PPER	PPER	_	_	_	_	1.000000
-5	mich	ich	PRF	PRF	_	_	_	_	0.940417
-6	genommen	nehmen	VVPP	VVPP	_	_	_	_	0.979296
-7	,	,	$,	$,	_	_	_	_	1.000000
-8	um	um	KOUI	KOUI	_	_	_	_	0.975054
-9	wieder	wieder	ADV	ADV	_	_	_	_	0.999875
-10	etwas	etwas	ADV	ADV	_	_	_	_	0.788603
-11	auf	auf	APPR	APPR	_	_	_	_	0.998236
-12	andere	andere	PIAT	PIAT	_	_	_	_	0.887600
-13	Gedanken	Gedanke	NN	NN	_	_	_	_	1.000000
-14	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999597
-15	kommen	kommen	VVINF	VVINF	_	_	_	_	0.999949
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	vermutet	vermuten	VVFIN	VVFIN	_	_	_	_	0.984181
-19	Timo	Timo	NE	NE	_	_	_	_	1.000000
-20	Helbling	--	NE	NE	_	_	_	_	0.999202
-21	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1013 1013 1020 1026 1029 1040 1045 1047 1051 1059 1064 1075 1078 1081
-###C: end_offsets = 1082 1019 1025 1028 1039 1045 1046 1050 1058 1063 1074 1077 1081 1082
-1	Klagen	klagen	VVINF	VVINF	_	_	_	_	0.809488
-2	könne	können	VMFIN	VMFIN	_	_	_	_	1.000000
-3	er	er	PPER	PPER	_	_	_	_	1.000000
-4	jedenfalls	jedenfalls	ADV	ADV	_	_	_	_	1.000000
-5	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-6	,	,	$,	$,	_	_	_	_	1.000000
-7	man	man	PIS	PIS	_	_	_	_	1.000000
-8	kümmere	kümmern	VVFIN	VVFIN	_	_	_	_	1.000000
-9	sich	sich	PRF	PRF	_	_	_	_	1.000000
-10	vorzüglich	vorzüglich	ADJD	ADJD	_	_	_	_	1.000000
-11	um	um	APPR	APPR	_	_	_	_	0.995016
-12	ihm	er	PPER	PPER	_	_	_	_	1.000000
-13	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1083 1083 1087 1099 1105 1116 1122 1132 1138 1143 1148 1152 1158 1165 1170 1176 1185 1190 1196 1199 1210
-###C: end_offsets = 1211 1086 1098 1104 1115 1121 1131 1137 1141 1147 1151 1157 1164 1169 1175 1184 1189 1195 1198 1210 1211
-1	Das	die	ART	ART	_	_	_	_	0.962601
-2	Versprechen	Versprechen	NN	NN	_	_	_	_	1.000000
-3	eines	eine	ART	ART	_	_	_	_	0.998544
-4	Testspiels	Testspiel	NN	NN	_	_	_	_	0.662087
-5	hielt	halten	VVFIN	VVFIN	_	_	_	_	1.000000
-6	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-7	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-8	ein	ein	PTKVZ	PTKVZ	_	_	_	_	0.602706
-9	Seit	seit	APPR	APPR	_	_	_	_	0.984396
-10	gut	gut	ADJD	ADJD	_	_	_	_	0.999984
-11	einem	eine	ART	ART	_	_	_	_	0.997705
-12	halben	halb	ADJA	ADJA	_	_	_	_	1.000000
-13	Jahr	Jahr	NN	NN	_	_	_	_	1.000000
-14	sucht	suchen	VVFIN	VVFIN	_	_	_	_	1.000000
-15	Helbling	--	NE	NE	_	_	_	_	0.995612
-16	sein	sein	PPOSAT	PPOSAT	_	_	_	_	0.995607
-17	Glück	Glück	NN	NN	_	_	_	_	1.000000
-18	in	in	APPR	APPR	_	_	_	_	1.000000
-19	Nordamerika	Nordamerika	NE	NE	_	_	_	_	1.000000
-20	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1212 1212 1215 1227 1234 1249 1252 1258 1276 1280 1284 1294 1303 1305 1309 1313 1322 1326 1335 1345 1346 1349 1351 1355 1360 1363 1371 1385
-###C: end_offsets = 1386 1214 1226 1233 1248 1251 1257 1275 1279 1283 1293 1303 1304 1308 1312 1321 1325 1334 1344 1346 1349 1350 1354 1359 1362 1370 1385 1386
-1	Im	in	APPRART	APPRART	_	_	_	_	1.000000
-2	vergangenen	vergangen	ADJA	ADJA	_	_	_	_	1.000000
-3	Sommer	Sommer	NN	NN	_	_	_	_	0.956930
-4	unterzeichnete	unterzeichnen	VVFIN	VVFIN	_	_	_	_	0.999855
-5	er	er	PPER	PPER	_	_	_	_	1.000000
-6	einen	eine	ART	ART	_	_	_	_	0.973616
-7	Dreijahresvertrag	Dreijahresvertrag	NN	NN	_	_	_	_	1.000000
-8	bei	bei	APPR	APPR	_	_	_	_	0.999816
-9	den	die	ART	ART	_	_	_	_	0.999938
-10	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-11	Predators	--	NN	NN	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	die	die	PRELS	PRELS	_	_	_	_	0.999621
-14	ihn	er	PPER	PPER	_	_	_	_	1.000000
-15	zunächst	zunächst	ADV	ADV	_	_	_	_	0.999632
-16	ans	ans	APPRART	APPRART	_	_	_	_	1.000000
-17	Farmteam	Farmteam	NN	NN	_	_	_	_	1.000000
-18	Milwaukee	Milwaukee	NE	NE	_	_	_	_	1.000000
-19	(	(	$(	$(	_	_	_	_	1.000000
-20	IHL	--	NE	NE	_	_	_	_	0.976399
-21	)	)	$(	$(	_	_	_	_	1.000000
-22	und	und	KON	KON	_	_	_	_	1.000000
-23	dann	dann	ADV	ADV	_	_	_	_	1.000000
-24	zu	zu	APPR	APPR	_	_	_	_	0.996294
-25	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-26	weiterreichten	weiterreichen	VVFIN	VVFIN	_	_	_	_	0.999075
-27	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1387 1387 1396 1405 1412 1416 1417 1428 1430 1434 1444 1448 1453 1457 1458 1466 1468 1481 1483 1486 1489 1493 1497 1507 1510 1519 1527 1533
-###C: end_offsets = 1534 1395 1404 1411 1415 1417 1428 1429 1433 1443 1447 1452 1456 1458 1466 1467 1481 1482 1485 1488 1492 1496 1506 1509 1518 1526 1533 1534
-1	Helbling	--	NE	NE	_	_	_	_	0.838584
-2	besuchte	besuchen	VVFIN	VVFIN	_	_	_	_	0.998789
-3	zuerst	zuerst	ADV	ADV	_	_	_	_	1.000000
-4	das	die	ART	ART	_	_	_	_	0.899883
-5	"	"	$(	$(	_	_	_	_	1.000000
-6	Rookie-Camp	--	NN	NN	_	_	_	_	0.998815
-7	"	"	$(	$(	_	_	_	_	1.000000
-8	der	die	ART	ART	_	_	_	_	0.996070
-9	Predators	--	NN	NN	_	_	_	_	1.000000
-10	und	und	KON	KON	_	_	_	_	1.000000
-11	dann	dann	ADV	ADV	_	_	_	_	1.000000
-12	das	die	ART	ART	_	_	_	_	0.899883
-13	"	"	$(	$(	_	_	_	_	1.000000
-14	richtige	richtig	ADJA	ADJA	_	_	_	_	1.000000
-15	"	"	$(	$(	_	_	_	_	1.000000
-16	Trainingscamp	Trainingscamp	NN	NN	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	wo	wo	PWAV	PWAV	_	_	_	_	1.000000
-19	er	er	PPER	PPER	_	_	_	_	1.000000
-20	von	von	APPR	APPR	_	_	_	_	0.999959
-21	den	die	ART	ART	_	_	_	_	0.999974
-22	Neulingen	Neuling	NN	NN	_	_	_	_	1.000000
-23	am	am	PTKA	PTKA	_	_	_	_	0.501702
-24	längsten	lang	ADJD	ADJD	_	_	_	_	0.601827
-25	bleiben	bleiben	VVINF	VVINF	_	_	_	_	0.999999
-26	durfte	dürfen	VMFIN	VMFIN	_	_	_	_	1.000000
-27	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1535 1535 1541 1547 1553 1563 1567 1573 1577 1596 1600 1609 1611 1616 1621 1626 1632 1636 1643 1663 1670 1673 1675 1684 1687 1691 1698 1700 1703 1717 1729 1732 1738
-###C: end_offsets = 1739 1540 1546 1552 1562 1566 1572 1576 1595 1599 1609 1610 1615 1620 1625 1631 1635 1642 1662 1669 1673 1674 1683 1686 1690 1698 1699 1702 1716 1728 1731 1738 1739
-1	Coach	Coach	NN	NN	_	_	_	_	0.936863
-2	Barry	Barry	NE	NE	_	_	_	_	1.000000
-3	Trotz	Trotz	NN	NN	_	_	_	_	0.999457
-4	versprach	versprechen	VVFIN	VVFIN	_	_	_	_	1.000000
-5	ihm	er	PPER	PPER	_	_	_	_	1.000000
-6	sogar	sogar	ADV	ADV	_	_	_	_	1.000000
-7	ein	eine	ART	ART	_	_	_	_	0.993896
-8	Vorbereitungsspiel	Vorbereitungsspiel	NN	NN	_	_	_	_	1.000000
-9	mit	mit	APPR	APPR	_	_	_	_	0.999656
-10	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-11	,	,	$,	$,	_	_	_	_	1.000000
-12	doch	doch	KON	KON	_	_	_	_	0.875020
-13	weil	weil	KOUS	KOUS	_	_	_	_	0.998620
-14	sich	sich	PRF	PRF	_	_	_	_	1.000000
-15	Trotz	trotz	APPR	APPR	_	_	_	_	0.960345
-16	mit	mit	APPR	APPR	_	_	_	_	0.999954
-17	seinen	sein	PPOSAT	PPOSAT	_	_	_	_	1.000000
-18	Personalentscheiden	Personalentscheid	NN	NN	_	_	_	_	1.000000
-19	schwer	schwer	ADJD	ADJD	_	_	_	_	0.986718
-20	tat	tun	VVFIN	VVFIN	_	_	_	_	1.000000
-21	,	,	$,	$,	_	_	_	_	1.000000
-22	brauchte	brauchen	VVFIN	VVFIN	_	_	_	_	1.000000
-23	er	er	PPER	PPER	_	_	_	_	1.000000
-24	die	die	ART	ART	_	_	_	_	0.998283
-25	Partien	Partie	NN	NN	_	_	_	_	1.000000
-26	,	,	$,	$,	_	_	_	_	1.000000
-27	um	um	KOUI	KOUI	_	_	_	_	0.896269
-28	routiniertere	routiniert	ADJA	ADJA	_	_	_	_	1.000000
-29	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-30	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999630
-31	testen	testen	VVINF	VVINF	_	_	_	_	0.999983
-32	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1740 1740 1749 1758 1763 1768 1788 1792 1801 1803 1806 1812 1815 1819 1826 1831 1833 1838 1841 1845 1846 1851 1854 1856 1860
-###C: end_offsets = 1861 1748 1757 1762 1767 1787 1791 1801 1802 1805 1811 1814 1818 1825 1831 1832 1837 1840 1844 1846 1850 1854 1855 1860 1861
-1	Helbling	--	NE	NE	_	_	_	_	0.838757
-2	bestritt	bestreiten	VVFIN	VVFIN	_	_	_	_	1.000000
-3	dann	dann	ADV	ADV	_	_	_	_	1.000000
-4	zwei	zwei	CARD	CARD	_	_	_	_	1.000000
-5	Freundschaftsspiele	Freundschaftsspiel	NN	NN	_	_	_	_	1.000000
-6	mit	mit	APPR	APPR	_	_	_	_	0.999656
-7	Milwaukee	Milwaukee	NE	NE	_	_	_	_	1.000000
-8	,	,	$,	$,	_	_	_	_	1.000000
-9	in	in	APPR	APPR	_	_	_	_	1.000000
-10	denen	die	PRELS	PRELS	_	_	_	_	0.747613
-11	er	er	PPER	PPER	_	_	_	_	1.000000
-12	das	die	ART	ART	_	_	_	_	0.984922
-13	Gefühl	Gefühl	NN	NN	_	_	_	_	1.000000
-14	hatte	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-15	,	,	$,	$,	_	_	_	_	1.000000
-16	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-17	es	es	PPER	PPER	_	_	_	_	1.000000
-18	ihm	er	PPER	PPER	_	_	_	_	1.000000
-19	"	"	$(	$(	_	_	_	_	1.000000
-20	sehr	sehr	ADV	ADV	_	_	_	_	1.000000
-21	gut	gut	ADJD	ADJD	_	_	_	_	0.999439
-22	"	"	$(	$(	_	_	_	_	1.000000
-23	lief	laufen	VVFIN	VVFIN	_	_	_	_	1.000000
-24	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1862 1862 1873 1882 1886 1890 1897 1902 1907 1913 1920 1923 1930 1932 1935 1947 1950 1957
-###C: end_offsets = 1958 1872 1881 1885 1889 1896 1901 1906 1912 1919 1922 1930 1931 1934 1946 1949 1957 1958
-1	Gleichwohl	gleichwohl	ADV	ADV	_	_	_	_	0.630452
-2	schickte	schicken	VVFIN	VVFIN	_	_	_	_	1.000000
-3	man	man	PIS	PIS	_	_	_	_	1.000000
-4	ihn	er	PPER	PPER	_	_	_	_	1.000000
-5	danach	danach	PAV	PAV	_	_	_	_	1.000000
-6	noch	noch	ADV	ADV	_	_	_	_	0.980091
-7	eine	eine	ART	ART	_	_	_	_	0.998731
-8	Stufe	Stufe	NN	NN	_	_	_	_	1.000000
-9	tiefer	tief	ADJD	ADJD	_	_	_	_	0.998813
-10	zu	zu	APPR	APPR	_	_	_	_	0.995289
-11	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	um	um	KOUI	KOUI	_	_	_	_	0.678412
-14	Spielpraxis	Spielpraxen	NN	NN	_	_	_	_	1.000000
-15	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999640
-16	sammeln	sammeln	VVINF	VVINF	_	_	_	_	0.999993
-17	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1959 1959 1963 1973 1978 1981 1991 1995 2002 2014 2021 2023 2029 2033 2043
-###C: end_offsets = 2044 1962 1972 1977 1980 1990 1994 2001 2013 2021 2022 2028 2032 2043 2044
-1	Bei	bei	APPR	APPR	_	_	_	_	0.999996
-2	Milwaukee	Milwaukee	NE	NE	_	_	_	_	1.000000
-3	wäre	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-4	er	er	PPER	PPER	_	_	_	_	1.000000
-5	höchstens	höchstens	ADV	ADV	_	_	_	_	1.000000
-6	der	die	ART	ART	_	_	_	_	0.999767
-7	fünfte	fünft	ADJA	ADJA	_	_	_	_	1.000000
-8	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-9	gewesen	sein	VAPP	VAPP	_	_	_	_	1.000000
-10	,	,	$,	$,	_	_	_	_	1.000000
-11	wurde	werden	VAFIN	VAFIN	_	_	_	_	1.000000
-12	ihm	er	PPER	PPER	_	_	_	_	1.000000
-13	mitgeteilt	mitteilen	VVPP	VVPP	_	_	_	_	0.982983
-14	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2045 2045 2048 2056 2064 2068 2073 2080 2084 2090 2094 2100 2107 2110 2118 2126 2135 2139 2146 2148 2152 2155 2160 2166 2173 2181 2185 2191 2201 2207 2209 2213 2218 2224 2228
-###C: end_offsets = 2229 2047 2055 2063 2067 2072 2079 2083 2089 2093 2099 2105 2109 2117 2125 2134 2138 2146 2147 2151 2154 2159 2165 2172 2179 2184 2190 2200 2206 2208 2212 2217 2223 2228 2229
-1	30	30	CARD	CARD	_	_	_	_	1.000000
-2	Minuten	Minute	NN	NN	_	_	_	_	1.000000
-3	Eiszeit	Eiszeit	NN	NN	_	_	_	_	1.000000
-4	und	und	KON	KON	_	_	_	_	1.000000
-5	drei	drei	CARD	CARD	_	_	_	_	1.000000
-6	Spiele	Spiel	NN	NN	_	_	_	_	1.000000
-7	pro	pro	APPR	APPR	_	_	_	_	1.000000
-8	Woche	Woche	NN	NN	_	_	_	_	1.000000
-9	als	als	KOKOM	KOKOM	_	_	_	_	0.992059
-10	beste	gut	ADJA	ADJA	_	_	_	_	1.000000
-11	Lehre	Lehre	NN	NN	_	_	_	_	1.000000
-12	In	in	APPR	APPR	_	_	_	_	0.999872
-13	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-14	bekommt	bekommen	VVFIN	VVFIN	_	_	_	_	1.000000
-15	Helbling	--	NE	NE	_	_	_	_	0.988560
-16	die	die	ART	ART	_	_	_	_	0.999996
-17	Eiszeit	Eiszeit	NN	NN	_	_	_	_	1.000000
-18	,	,	$,	$,	_	_	_	_	1.000000
-19	die	die	PRELS	PRELS	_	_	_	_	0.999621
-20	er	er	PPER	PPER	_	_	_	_	1.000000
-21	sich	sich	PRF	PRF	_	_	_	_	1.000000
-22	schon	schon	ADV	ADV	_	_	_	_	0.999989
-23	letzte	letzt	ADJA	ADJA	_	_	_	_	1.000000
-24	Saison	Saison	NN	NN	_	_	_	_	1.000000
-25	bei	bei	APPR	APPR	_	_	_	_	0.999811
-26	Davos	Davos	NE	NE	_	_	_	_	1.000000
-27	gewünscht	wünschen	VVPP	VVPP	_	_	_	_	1.000000
-28	hätte	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-29	-	-	$(	$(	_	_	_	_	1.000000
-30	und	und	KON	KON	_	_	_	_	1.000000
-31	noch	noch	ADV	ADV	_	_	_	_	0.996691
-32	etwas	etwas	ADV	ADV	_	_	_	_	0.847276
-33	mehr	mehr	ADV	ADV	_	_	_	_	0.792583
-34	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2230 2230 2233 2240 2244 2247 2250 2258 2262 2267 2269 2273 2287 2294 2306 2311 2318 2320
-###C: end_offsets = 2321 2232 2239 2243 2246 2249 2257 2261 2267 2268 2272 2286 2293 2305 2310 2317 2320 2321
-1	Er	er	PPER	PPER	_	_	_	_	1.000000
-2	spielt	spielen	VVFIN	VVFIN	_	_	_	_	0.999993
-3	bis	bis	KON	KON	_	_	_	_	0.766714
-4	zu	zu	APPR	APPR	_	_	_	_	0.993107
-5	30	30	CARD	CARD	_	_	_	_	1.000000
-6	Minuten	Minute	NN	NN	_	_	_	_	1.000000
-7	pro	pro	APPR	APPR	_	_	_	_	1.000000
-8	Match	Match	NN	NN	_	_	_	_	1.000000
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	und	und	KON	KON	_	_	_	_	1.000000
-11	normalerweise	normalerweise	ADV	ADV	_	_	_	_	1.000000
-12	stehen	stehen	VVFIN	VVFIN	_	_	_	_	0.999932
-13	wöchentlich	wöchentlich	ADJD	ADJD	_	_	_	_	1.000000
-14	drei	drei	CARD	CARD	_	_	_	_	1.000000
-15	Spiele	Spiel	NN	NN	_	_	_	_	1.000000
-16	an	an	PTKVZ	PTKVZ	_	_	_	_	0.969773
-17	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2322 2322 2331 2336 2339 2349 2351 2359 2363 2371 2376 2384 2392
-###C: end_offsets = 2393 2330 2335 2338 2349 2350 2358 2362 2370 2375 2383 2392 2393
-1	Meistens	meistens	ADV	ADV	_	_	_	_	1.000000
-2	wird	werden	VAFIN	VAFIN	_	_	_	_	1.000000
-3	am	an	APPRART	APPRART	_	_	_	_	0.998602
-4	Donnerstag	Donnerstag	NN	NN	_	_	_	_	1.000000
-5	,	,	$,	$,	_	_	_	_	1.000000
-6	Freitag	Freitag	NN	NN	_	_	_	_	0.933988
-7	und	und	KON	KON	_	_	_	_	1.000000
-8	Samstag	Samstag	NN	NN	_	_	_	_	1.000000
-9	oder	oder	KON	KON	_	_	_	_	1.000000
-10	Sonntag	Sonntag	NN	NN	_	_	_	_	0.767852
-11	gespielt	spielen	VVPP	VVPP	_	_	_	_	0.987774
-12	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2394 2394 2403 2407 2416 2418 2423 2426 2429 2436 2443 2449 2455 2460 2468 2472 2477 2478 2482 2489 2498 2500 2508 2511
-###C: end_offsets = 2512 2402 2406 2416 2417 2422 2425 2428 2435 2442 2448 2454 2459 2467 2471 2476 2478 2481 2488 2498 2499 2507 2511 2512
-1	Helbling	--	NE	NE	_	_	_	_	0.772217
-2	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-3	überzeugt	überzeugt	ADJD	ADJD	_	_	_	_	0.764430
-4	,	,	$,	$,	_	_	_	_	1.000000
-5	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-6	er	er	PPER	PPER	_	_	_	_	1.000000
-7	in	in	APPR	APPR	_	_	_	_	1.000000
-8	dieser	dies	PDAT	PDAT	_	_	_	_	0.999877
-9	Saison	Saison	NN	NN	_	_	_	_	1.000000
-10	schon	schon	ADV	ADV	_	_	_	_	0.999995
-11	enorm	enorm	ADJD	ADJD	_	_	_	_	1.000000
-12	viel	viel	ADV	ADV	_	_	_	_	0.713656
-13	gelernt	lernen	VVPP	VVPP	_	_	_	_	1.000000
-14	und	und	KON	KON	_	_	_	_	1.000000
-15	sich	sich	PRF	PRF	_	_	_	_	1.000000
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	ans	ans	APPRART	APPRART	_	_	_	_	1.000000
-18	andere	andere	PIS	PIS	_	_	_	_	0.899923
-19	Eishockey	Eishockey	NN	NN	_	_	_	_	1.000000
-20	"	"	$(	$(	_	_	_	_	1.000000
-21	gewöhnt	gewöhnen	VVPP	VVPP	_	_	_	_	0.800978
-22	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-23	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2513 2513 2514 2518 2525 2529 2532 2536 2540 2546 2549 2554 2558 2561 2565 2578 2579 2580 2582 2588 2591 2594 2596 2597 2602 2609 2614 2618 2623 2625 2628 2633 2636 2646
-###C: end_offsets = 2647 2514 2517 2524 2528 2531 2535 2539 2545 2548 2553 2557 2560 2564 2577 2579 2580 2581 2587 2590 2594 2595 2597 2601 2608 2613 2617 2623 2624 2627 2632 2635 2646 2647
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Das	die	ART	ART	_	_	_	_	0.937509
-3	Niveau	Niveau	NN	NN	_	_	_	_	1.000000
-4	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-5	in	in	APPR	APPR	_	_	_	_	1.000000
-6	der	die	ART	ART	_	_	_	_	0.999671
-7	OHL	--	NN	NN	_	_	_	_	0.609433
-8	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-9	so	so	ADV	ADV	_	_	_	_	0.999995
-10	hoch	hoch	ADJD	ADJD	_	_	_	_	0.940128
-11	wie	wie	KOKOM	KOKOM	_	_	_	_	0.999736
-12	in	in	APPR	APPR	_	_	_	_	1.000000
-13	der	die	ART	ART	_	_	_	_	0.999980
-14	Nationalliga	Nationalliga	NN	NN	_	_	_	_	1.000000
-15	A	A	FM	FM	_	_	_	_	0.649062
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	räumt	räumen	VVFIN	VVFIN	_	_	_	_	0.999984
-19	er	er	PPER	PPER	_	_	_	_	1.000000
-20	ein	ein	PTKVZ	PTKVZ	_	_	_	_	0.997919
-21	,	,	$,	$,	_	_	_	_	1.000000
-22	"	"	$(	$(	_	_	_	_	1.000000
-23	doch	doch	KON	KON	_	_	_	_	0.511263
-24	Spiele	Spiel	NN	NN	_	_	_	_	1.000000
-25	sind	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-26	das	die	ART	ART	_	_	_	_	0.972196
-27	Beste	Beste	NN	NN	_	_	_	_	0.833569
-28	,	,	$,	$,	_	_	_	_	1.000000
-29	um	um	KOUI	KOUI	_	_	_	_	0.978288
-30	sich	sich	PRF	PRF	_	_	_	_	1.000000
-31	zu	zu	PTKZU	PTKZU	_	_	_	_	0.955683
-32	entwickeln	entwickeln	VVINF	VVINF	_	_	_	_	0.995871
-33	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2647 2647 2649 2658 2662 2670 2674 2683 2697 2705
-###C: end_offsets = 2706 2648 2657 2661 2669 2673 2682 2696 2705 2706
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Helbling	--	NE	NE	_	_	_	_	0.444734
-3	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-4	ruhiger	ruhig	ADJD	ADJD	_	_	_	_	0.979911
-5	und	und	KON	KON	_	_	_	_	1.000000
-6	defensiv	defensiv	ADJD	ADJD	_	_	_	_	1.000000
-7	verlässlicher	verlässlich	ADJD	ADJD	_	_	_	_	0.999384
-8	geworden	werden	VAPP	VAPP	_	_	_	_	1.000000
-9	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2707 2707 2708 2713 2719 2724 2733 2737 2742 2747 2753 2762 2763 2765 2770 2773 2786
-###C: end_offsets = 2787 2708 2712 2718 2723 2732 2736 2741 2746 2752 2762 2763 2764 2769 2772 2786 2787
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Eins	eins	CARD	CARD	_	_	_	_	0.780848
-3	gegen	gegen	APPR	APPR	_	_	_	_	0.999999
-4	eins	eins	CARD	CARD	_	_	_	_	1.000000
-5	verliere	verlieren	VVFIN	VVFIN	_	_	_	_	1.000000
-6	ich	ich	PPER	PPER	_	_	_	_	1.000000
-7	kaum	kaum	ADV	ADV	_	_	_	_	1.000000
-8	mehr	mehr	ADV	ADV	_	_	_	_	0.914794
-9	einen	eine	ART	ART	_	_	_	_	0.975250
-10	Zweikampf	Zweikampf	NN	NN	_	_	_	_	1.000000
-11	"	"	$(	$(	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	sagt	sagen	VVFIN	VVFIN	_	_	_	_	0.999999
-14	er	er	PPER	PPER	_	_	_	_	1.000000
-15	selbstbewusst	selbstbewusst	ADJD	ADJD	_	_	_	_	1.000000
-16	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2788 2788 2792 2795 2799 2806 2808 2813 2816 2820 2824 2832 2843 2848 2854 2858 2864 2867 2869 2873 2878 2886 2894 2898 2904 2912 2927
-###C: end_offsets = 2928 2791 2794 2798 2806 2807 2812 2815 2819 2823 2831 2842 2847 2853 2857 2863 2867 2868 2872 2877 2885 2893 2897 2903 2911 2927 2928
-1	Und	und	KON	KON	_	_	_	_	1.000000
-2	er	er	PPER	PPER	_	_	_	_	1.000000
-3	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-4	gelernt	lernen	VVPP	VVPP	_	_	_	_	1.000000
-5	,	,	$,	$,	_	_	_	_	1.000000
-6	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-7	es	es	PPER	PPER	_	_	_	_	1.000000
-8	auf	auf	APPR	APPR	_	_	_	_	0.996028
-9	den	die	ART	ART	_	_	_	_	0.999884
-10	kleinen	klein	ADJA	ADJA	_	_	_	_	1.000000
-11	Eisfeldern	Eisfeld	NN	NN	_	_	_	_	1.000000
-12	fast	fast	ADV	ADV	_	_	_	_	1.000000
-13	immer	immer	ADV	ADV	_	_	_	_	1.000000
-14	das	die	ART	ART	_	_	_	_	0.994554
-15	Beste	Beste	NN	NN	_	_	_	_	0.965535
-16	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	den	die	ART	ART	_	_	_	_	0.991341
-19	Puck	Puck	NN	NN	_	_	_	_	1.000000
-20	einfach	einfach	ADJD	ADJD	_	_	_	_	0.940820
-21	schnell	schnell	ADJD	ADJD	_	_	_	_	1.000000
-22	der	die	ART	ART	_	_	_	_	0.999941
-23	Bande	Bande	NN	NN	_	_	_	_	1.000000
-24	entlang	entlang	APPO	APPO	_	_	_	_	0.993429
-25	hinauszuspielen	hinausspielen	VVIZU	VVIZU	_	_	_	_	1.000000
-26	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2929 2929 2932 2944 2949 2953 2959 2971 2977 2985 2987 2992 2995 2999 3007 3013 3017 3026 3033 3042 3044 3047 3051 3055 3057 3062 3067 3071 3079 3081 3086 3088 3097 3099 3108 3110 3118 3123 3129
-###C: end_offsets = 3130 2931 2943 2948 2952 2958 2970 2976 2985 2986 2991 2994 2998 3006 3012 3016 3025 3032 3041 3043 3046 3050 3055 3056 3061 3066 3070 3079 3080 3086 3087 3097 3098 3108 3109 3117 3122 3129 3130
-1	In	in	APPR	APPR	_	_	_	_	0.999968
-2	Nordamerika	Nordamerika	NE	NE	_	_	_	_	1.000000
-3	wird	werden	VAFIN	VAFIN	_	_	_	_	1.000000
-4	von	von	APPR	APPR	_	_	_	_	0.999757
-5	einem	eine	ART	ART	_	_	_	_	0.998932
-6	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-7	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-8	erwartet	erwarten	VVPP	VVPP	_	_	_	_	0.878218
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-11	er	er	PPER	PPER	_	_	_	_	1.000000
-12	die	die	ART	ART	_	_	_	_	0.998283
-13	Stürmer	Stürmer	NN	NN	_	_	_	_	1.000000
-14	stets	stets	ADV	ADV	_	_	_	_	1.000000
-15	mit	mit	APPR	APPR	_	_	_	_	0.999553
-16	genialen	genial	ADJA	ADJA	_	_	_	_	1.000000
-17	Pässen	Pass	NN	NN	_	_	_	_	1.000000
-18	lanciert	lancieren	VVPP	VVPP	_	_	_	_	0.797526
-19	-	-	$(	$(	_	_	_	_	1.000000
-20	es	es	PPER	PPER	_	_	_	_	1.000000
-21	sei	sein	VAFIN	VAFIN	_	_	_	_	0.999995
-22	denn	denn	ADV	ADV	_	_	_	_	0.973451
-23	,	,	$,	$,	_	_	_	_	1.000000
-24	sein	sein	PPOSAT	PPOSAT	_	_	_	_	0.999999
-25	Name	Name	NN	NN	_	_	_	_	1.000000
-26	sei	sein	VAFIN	VAFIN	_	_	_	_	0.999999
-27	Lidström	--	NN	NN	_	_	_	_	0.953224
-28	,	,	$,	$,	_	_	_	_	1.000000
-29	Blake	Blake	NE	NE	_	_	_	_	1.000000
-30	,	,	$,	$,	_	_	_	_	1.000000
-31	Ozolinsch	--	NN	NN	_	_	_	_	1.000000
-32	,	,	$,	$,	_	_	_	_	1.000000
-33	Gontschar	--	NN	NN	_	_	_	_	0.999505
-34	,	,	$,	$,	_	_	_	_	1.000000
-35	Pronger	--	VVFIN	VVFIN	_	_	_	_	0.413156
-36	oder	oder	KON	KON	_	_	_	_	1.000000
-37	Leetch	--	VVFIN	VVFIN	_	_	_	_	0.594109
-38	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3131 3131 3135 3145 3153 3157 3169 3176 3178 3188 3190 3196 3202 3209
-###C: end_offsets = 3210 3134 3144 3152 3156 3168 3176 3177 3188 3189 3195 3200 3209 3210
-1	Bei	bei	APPR	APPR	_	_	_	_	0.999996
-2	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-3	heissen	heißen	VVFIN	VVFIN	_	_	_	_	0.986220
-4	die	die	ART	ART	_	_	_	_	0.999352
-5	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-6	Timonen	--	NE	NE	_	_	_	_	0.830001
-7	,	,	$,	$,	_	_	_	_	1.000000
-8	Berehovsky	--	NE	NE	_	_	_	_	0.925025
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	Hulse	--	NN	NN	_	_	_	_	0.999089
-11	oder	oder	KON	KON	_	_	_	_	1.000000
-12	Houlder	--	NE	NE	_	_	_	_	0.794028
-13	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3211 3211 3215 3221 3227 3234 3236 3240 3248 3252 3267 3273 3275 3279 3283 3287 3296 3305 3307 3311 3315 3319 3327 3339 3343 3345 3347 3353 3356 3363
-###C: end_offsets = 3364 3214 3220 3226 3234 3235 3239 3247 3251 3266 3273 3274 3278 3282 3286 3295 3305 3306 3310 3314 3318 3326 3338 3342 3345 3346 3352 3355 3363 3364
-1	Der	die	ART	ART	_	_	_	_	0.999389
-2	Finne	Finne	NN	NN	_	_	_	_	1.000000
-3	Kimmo	--	NE	NE	_	_	_	_	0.988083
-4	Timonen	--	NE	NE	_	_	_	_	0.955903
-5	,	,	$,	$,	_	_	_	_	1.000000
-6	ein	eine	ART	ART	_	_	_	_	0.998519
-7	Produkt	Produkt	NN	NN	_	_	_	_	1.000000
-8	der	die	ART	ART	_	_	_	_	0.999973
-9	Talentschmiede	Talentschmiede	NN	NN	_	_	_	_	1.000000
-10	Turkus	Turku	NE	NE	_	_	_	_	1.000000
-11	,	,	$,	$,	_	_	_	_	1.000000
-12	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-13	für	für	APPR	APPR	_	_	_	_	1.000000
-14	das	die	ART	ART	_	_	_	_	0.998419
-15	Kreative	Kreative	NN	NN	_	_	_	_	0.967391
-16	zuständig	zuständig	ADJD	ADJD	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	der	die	ART	ART	_	_	_	_	0.954604
-19	Job	Job	NN	NN	_	_	_	_	1.000000
-20	der	die	ART	ART	_	_	_	_	0.999642
-21	anderen	andere	PIAT	PIAT	_	_	_	_	0.942280
-22	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-23	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-24	es	es	PPER	PPER	_	_	_	_	1.000000
-25	,	,	$,	$,	_	_	_	_	1.000000
-26	solid	solid	ADJD	ADJD	_	_	_	_	1.000000
-27	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999627
-28	spielen	spielen	VVINF	VVINF	_	_	_	_	0.999969
-29	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3365 3365 3374 3378 3381 3385 3392 3394 3397 3402 3404 3409 3413 3423 3426 3432 3448 3449 3453 3459 3462 3467 3469 3472
-###C: end_offsets = 3473 3373 3377 3380 3384 3392 3393 3396 3402 3403 3408 3412 3422 3425 3431 3447 3449 3452 3458 3461 3467 3468 3472 3473
-1	Helbling	--	NE	NE	_	_	_	_	0.772217
-2	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-3	es	es	PPER	PPER	_	_	_	_	1.000000
-4	Mut	Mut	NN	NN	_	_	_	_	1.000000
-5	gemacht	machen	VVPP	VVPP	_	_	_	_	0.997958
-6	,	,	$,	$,	_	_	_	_	1.000000
-7	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999029
-8	sehen	sehen	VVINF	VVINF	_	_	_	_	0.999856
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-11	die	die	ART	ART	_	_	_	_	0.999053
-12	Differenz	Differenz	NN	NN	_	_	_	_	1.000000
-13	zu	zu	APPR	APPR	_	_	_	_	0.997238
-14	einem	eine	ART	ART	_	_	_	_	0.998935
-15	NHL-Verteidiger	--	NN	NN	_	_	_	_	0.996200
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	gar	gar	ADV	ADV	_	_	_	_	0.997380
-18	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-19	so	so	ADV	ADV	_	_	_	_	0.999995
-20	gross	groß	ADJD	ADJD	_	_	_	_	0.973339
-21	"	"	$(	$(	_	_	_	_	1.000000
-22	sei	sein	VAFIN	VAFIN	_	_	_	_	0.999999
-23	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3474 3474 3475 3484 3490 3498 3502 3508 3526 3533 3536 3541 3547 3558 3559 3561 3568 3570
-###C: end_offsets = 3571 3475 3483 3489 3497 3501 3507 3525 3532 3535 3540 3546 3558 3559 3560 3567 3570 3571
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Zwischen	zwischen	APPR	APPR	_	_	_	_	1.000000
-3	einem	eine	ART	ART	_	_	_	_	0.999117
-4	Houlder	--	NN	NN	_	_	_	_	0.775410
-5	und	und	KON	KON	_	_	_	_	1.000000
-6	einem	eine	ART	ART	_	_	_	_	0.999437
-7	Milwaukee-Spieler	--	NN	NN	_	_	_	_	1.000000
-8	siehst	sehen	VVFIN	VVFIN	_	_	_	_	1.000000
-9	du	du	PPER	PPER	_	_	_	_	1.000000
-10	kaum	kaum	ADV	ADV	_	_	_	_	1.000000
-11	einen	eine	ART	ART	_	_	_	_	0.987734
-12	Unterschied	Unterschied	NN	NN	_	_	_	_	0.999995
-13	"	"	$(	$(	_	_	_	_	1.000000
-14	,	,	$,	$,	_	_	_	_	1.000000
-15	glaubt	glauben	VVFIN	VVFIN	_	_	_	_	0.999993
-16	er	er	PPER	PPER	_	_	_	_	1.000000
-17	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3572 3572 3576 3581 3587 3617 3621 3629 3635 3639 3645 3648 3655 3664
-###C: end_offsets = 3665 3575 3580 3586 3616 3620 3628 3634 3638 3644 3647 3654 3664 3665
-1	Das	die	ART	ART	_	_	_	_	0.935205
-2	Plus	Plus	NN	NN	_	_	_	_	0.928094
-3	eines	eine	ART	ART	_	_	_	_	0.997835
-4	NHL-Durchschnittsverteidigers	--	NN	NN	_	_	_	_	1.000000
-5	wie	wie	KOKOM	KOKOM	_	_	_	_	0.997613
-6	Houlder	--	NN	NN	_	_	_	_	0.649910
-7	liege	liegen	VVFIN	VVFIN	_	_	_	_	1.000000
-8	vor	vor	APPR	APPR	_	_	_	_	0.950608
-9	allem	alle	PIS	PIS	_	_	_	_	0.998353
-10	in	in	APPR	APPR	_	_	_	_	1.000000
-11	dessen	die	PDAT	PDAT	_	_	_	_	0.995469
-12	Erfahrung	Erfahrung	NN	NN	_	_	_	_	1.000000
-13	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3666 3666 3670 3684 3692 3702 3712 3720 3731 3744 3748 3753 3758 3764 3766 3770 3773 3777 3781 3784 3788 3795 3800 3803 3808 3811 3819 3824 3830 3841 3847 3849 3857 3860 3864 3878 3893
-###C: end_offsets = 3894 3669 3683 3691 3701 3711 3719 3729 3743 3747 3752 3757 3764 3765 3769 3772 3776 3780 3783 3787 3794 3800 3801 3807 3810 3818 3823 3829 3840 3847 3848 3856 3859 3863 3876 3893 3894
-1	Der	die	ART	ART	_	_	_	_	0.997640
-2	entscheidende	entscheidend	ADJA	ADJA	_	_	_	_	1.000000
-3	Vorteil	Vorteil	NN	NN	_	_	_	_	1.000000
-4	Helblings	--	NE	NE	_	_	_	_	0.997609
-5	gegenüber	gegenüber	APPR	APPR	_	_	_	_	0.979668
-6	anderen	andere	PIS	PIS	_	_	_	_	0.696600
-7	Schweizer	Schweizer	ADJA	ADJA	_	_	_	_	0.991533
-8	Verteidigern	Verteidiger	NN	NN	_	_	_	_	1.000000
-9	wie	wie	KOKOM	KOKOM	_	_	_	_	0.993093
-10	etwa	etwa	ADV	ADV	_	_	_	_	1.000000
-11	Mark	Mark	NN	NN	_	_	_	_	0.968055
-12	Streit	Streit	NN	NN	_	_	_	_	1.000000
-13	,	,	$,	$,	_	_	_	_	1.000000
-14	der	die	PRELS	PRELS	_	_	_	_	0.926198
-15	in	in	APPR	APPR	_	_	_	_	1.000000
-16	der	die	ART	ART	_	_	_	_	0.999980
-17	NLA	--	NN	NN	_	_	_	_	0.999952
-18	zu	zu	APPR	APPR	_	_	_	_	0.997236
-19	den	die	ART	ART	_	_	_	_	0.999968
-20	Besten	Beste	NN	NN	_	_	_	_	0.988342
-21	zählt	zählen	VVFIN	VVFIN	_	_	_	_	0.999999
-22	,	,	$,	$,	_	_	_	_	1.000000
-23	sich	sich	PRF	PRF	_	_	_	_	1.000000
-24	in	in	APPR	APPR	_	_	_	_	1.000000
-25	Übersee	Übersee	NN	NN	_	_	_	_	1.000000
-26	aber	aber	ADV	ADV	_	_	_	_	0.665670
-27	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-28	etablieren	etablieren	VVINF	VVINF	_	_	_	_	1.000000
-29	konnte	können	VMFIN	VMFIN	_	_	_	_	1.000000
-30	,	,	$,	$,	_	_	_	_	1.000000
-31	besteht	bestehen	VVFIN	VVFIN	_	_	_	_	0.999529
-32	in	in	APPR	APPR	_	_	_	_	1.000000
-33	den	die	ART	ART	_	_	_	_	0.999888
-34	körperlichen	körperlich	ADJA	ADJA	_	_	_	_	1.000000
-35	Voraussetzungen	Voraussetzung	NN	NN	_	_	_	_	1.000000
-36	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3895 3895 3899 3904 3906 3913 3917 3920 3923 3924 3932 3940 3942 3950 3959 3964 3968 3975 3992
-###C: end_offsets = 3993 3898 3903 3905 3912 3916 3919 3922 3924 3931 3940 3941 3949 3958 3963 3967 3974 3992 3993
-1	Mit	mit	APPR	APPR	_	_	_	_	0.999996
-2	1,89	@card@	CARD	CARD	_	_	_	_	0.998286
-3	m	m	NN	NN	_	_	_	_	1.000000
-4	Grösse	Größe	NN	NN	_	_	_	_	1.000000
-5	und	und	KON	KON	_	_	_	_	1.000000
-6	94	@card@	CARD	CARD	_	_	_	_	0.996320
-7	kg	kg	NN	NN	_	_	_	_	1.000000
-8	(	(	$(	$(	_	_	_	_	1.000000
-9	Tendenz	Tendenz	NN	NN	_	_	_	_	1.000000
-10	steigend	steigend	ADJD	ADJD	_	_	_	_	1.000000
-11	)	)	$(	$(	_	_	_	_	1.000000
-12	verfügt	verfügen	VVFIN	VVFIN	_	_	_	_	0.948543
-13	Helbling	--	NE	NE	_	_	_	_	0.991048
-14	über	über	APPR	APPR	_	_	_	_	0.999855
-15	die	die	ART	ART	_	_	_	_	0.999760
-16	nötige	nötig	ADJA	ADJA	_	_	_	_	0.999989
-17	Wasserverdrängung	Wasserverdrängung	NN	NN	_	_	_	_	1.000000
-18	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3994 3994 3998 4002 4014 4016 4021 4024 4028 4030 4034 4047 4055 4059 4063 4071 4075 4087 4092 4096 4100 4107 4110 4111 4120 4121
-###C: end_offsets = 4122 3997 4001 4014 4015 4020 4023 4028 4029 4033 4046 4054 4058 4062 4070 4074 4086 4091 4095 4099 4106 4109 4111 4120 4121 4122
-1	Das	die	PDS	PDS	_	_	_	_	0.998795
-2	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-3	entscheidend	entscheidend	ADJD	ADJD	_	_	_	_	1.000000
-4	,	,	$,	$,	_	_	_	_	1.000000
-5	wenn	wenn	KOUS	KOUS	_	_	_	_	1.000000
-6	es	es	PPER	PPER	_	_	_	_	1.000000
-7	gilt	gelten	VVFIN	VVFIN	_	_	_	_	0.999994
-8	,	,	$,	$,	_	_	_	_	1.000000
-9	die	die	ART	ART	_	_	_	_	0.879386
-10	gegnerischen	gegnerisch	ADJA	ADJA	_	_	_	_	1.000000
-11	Stürmer	Stürmer	NN	NN	_	_	_	_	1.000000
-12	vor	vor	APPR	APPR	_	_	_	_	0.992727
-13	dem	die	ART	ART	_	_	_	_	0.999803
-14	eigenen	eigen	ADJA	ADJA	_	_	_	_	1.000000
-15	Tor	Tor	NN	NN	_	_	_	_	1.000000
-16	wegzuräumen	wegräumen	VVIZU	VVIZU	_	_	_	_	1.000000
-17	oder	oder	KON	KON	_	_	_	_	1.000000
-18	sie	sie	PPER	PPER	_	_	_	_	1.000000
-19	mit	mit	APPR	APPR	_	_	_	_	0.995672
-20	Checks	Check	NN	NN	_	_	_	_	1.000000
-21	zu	zu	PTKVZ	PTKVZ	_	_	_	_	0.557737
-22	"	"	$(	$(	_	_	_	_	1.000000
-23	bestrafen	bestrafen	VVINF	VVINF	_	_	_	_	0.733306
-24	"	"	$(	$(	_	_	_	_	1.000000
-25	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 4123 4123 4126 4132 4140 4147 4150 4158 4166 4173 4181 4190 4194 4203 4212 4215 4234 4244 4248 4253 4257 4264 4269 4276 4280 4287 4294
-###C: end_offsets = 4295 4125 4131 4139 4146 4149 4157 4165 4172 4179 4189 4193 4202 4211 4214 4233 4243 4247 4252 4255 4263 4268 4275 4279 4286 4294 4295
-1	In	in	APPR	APPR	_	_	_	_	1.000000
-2	sechs	sechs	CARD	CARD	_	_	_	_	1.000000
-3	Monaten	Monat	NN	NN	_	_	_	_	1.000000
-4	musste	müssen	VMFIN	VMFIN	_	_	_	_	1.000000
-5	er	er	PPER	PPER	_	_	_	_	1.000000
-6	bereits	bereits	ADV	ADV	_	_	_	_	1.000000
-7	viermal	viermal	ADV	ADV	_	_	_	_	1.000000
-8	genäht	nähen	VVPP	VVPP	_	_	_	_	1.000000
-9	werden	werden	VAFIN	VAFIN	_	_	_	_	0.946916
-10	Helbling	--	NE	NE	_	_	_	_	0.992759
-11	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-12	Gefallen	Gefallen	NN	NN	_	_	_	_	1.000000
-13	gefunden	finden	VVPP	VVPP	_	_	_	_	0.975884
-14	am	an	APPRART	APPRART	_	_	_	_	0.998792
-15	nordamerikanischen	nordamerikanisch	ADJA	ADJA	_	_	_	_	1.000000
-16	Eishockey	Eishockey	NN	NN	_	_	_	_	1.000000
-17	und	und	KON	KON	_	_	_	_	1.000000
-18	sich	sich	PRF	PRF	_	_	_	_	1.000000
-19	an	an	APPR	APPR	_	_	_	_	0.999437
-20	dessen	die	PDAT	PDAT	_	_	_	_	0.979663
-21	raue	rauh	ADJA	ADJA	_	_	_	_	0.997955
-22	Sitten	Sitte	NN	NN	_	_	_	_	1.000000
-23	und	und	KON	KON	_	_	_	_	1.000000
-24	Regeln	Regel	NN	NN	_	_	_	_	1.000000
-25	gewöhnt	gewöhnen	VVPP	VVPP	_	_	_	_	0.826941
-26	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 4296 4296 4299 4306 4315 4319 4323 4332 4341 4344 4348 4361 4365 4372 4382 4385 4389 4394 4396 4405 4412 4416 4421 4424 4428 4439 4443 4450 4456 4460 4467 4471 4476 4484 4491 4497
-###C: end_offsets = 4498 4298 4305 4314 4318 4322 4331 4340 4343 4347 4360 4364 4371 4381 4384 4388 4394 4395 4404 4411 4415 4420 4423 4427 4438 4442 4449 4455 4459 4466 4470 4475 4483 4490 4497 4498
-1	In	in	APPR	APPR	_	_	_	_	0.999968
-2	Moskau	Moskau	NE	NE	_	_	_	_	1.000000
-3	wuchtete	wuchten	VVFIN	VVFIN	_	_	_	_	1.000000
-4	ihn	er	PPER	PPER	_	_	_	_	1.000000
-5	der	die	ART	ART	_	_	_	_	0.999411
-6	Kanadier	Kanadier	NN	NN	_	_	_	_	1.000000
-7	Morisset	--	VVFIN	VVFIN	_	_	_	_	0.898907
-8	in	in	APPR	APPR	_	_	_	_	1.000000
-9	der	die	ART	ART	_	_	_	_	0.999980
-10	Schlussphase	Schlussphase	NN	NN	_	_	_	_	1.000000
-11	des	die	ART	ART	_	_	_	_	1.000000
-12	Spiels	Spiel	NN	NN	_	_	_	_	1.000000
-13	kopfvoran	--	ADJA	ADJA	_	_	_	_	1.000000
-14	in	in	APPR	APPR	_	_	_	_	1.000000
-15	die	die	ART	ART	_	_	_	_	0.999936
-16	Bande	Bande	NN	NN	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	Helbling	--	NE	NE	_	_	_	_	0.980174
-19	erlitt	erleiden	VVFIN	VVFIN	_	_	_	_	1.000000
-20	ein	eine	ART	ART	_	_	_	_	0.998021
-21	Loch	Loch	NN	NN	_	_	_	_	1.000000
-22	in	in	APPR	APPR	_	_	_	_	1.000000
-23	der	die	ART	ART	_	_	_	_	0.999980
-24	Unterlippe	Unterlippe	NN	NN	_	_	_	_	1.000000
-25	und	und	KON	KON	_	_	_	_	1.000000
-26	musste	müssen	VMFIN	VMFIN	_	_	_	_	1.000000
-27	innen	innen	ADV	ADV	_	_	_	_	0.876723
-28	wie	wie	KOKOM	KOKOM	_	_	_	_	0.994815
-29	aussen	außenßen	ADJD	ADJD	_	_	_	_	1.000000
-30	mit	mit	APPR	APPR	_	_	_	_	0.999611
-31	drei	drei	CARD	CARD	_	_	_	_	1.000000
-32	Stichen	Stich	NN	NN	_	_	_	_	1.000000
-33	genäht	nähen	VVPP	VVPP	_	_	_	_	1.000000
-34	werden	werden	VAINF	VAINF	_	_	_	_	0.988908
-35	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 4499 4499 4502 4506 4510 4514 4522 4526 4533 4537 4540 4546 4553 4555 4560 4564 4569 4575 4582 4589 4595
-###C: end_offsets = 4596 4501 4505 4509 4513 4521 4525 4532 4536 4539 4545 4553 4554 4559 4563 4568 4574 4581 4588 4595 4596
-1	Es	es	PPER	PPER	_	_	_	_	0.999698
-2	war	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-3	für	für	APPR	APPR	_	_	_	_	1.000000
-4	ihn	er	PPER	PPER	_	_	_	_	1.000000
-5	bereits	bereits	ADV	ADV	_	_	_	_	1.000000
-6	das	die	ART	ART	_	_	_	_	0.978571
-7	vierte	viert	ADJA	ADJA	_	_	_	_	1.000000
-8	Mal	Mal	NN	NN	_	_	_	_	0.999880
-9	in	in	APPR	APPR	_	_	_	_	1.000000
-10	sechs	sechs	CARD	CARD	_	_	_	_	1.000000
-11	Monaten	Monat	NN	NN	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-14	ihm	er	PPER	PPER	_	_	_	_	1.000000
-15	eine	eine	ART	ART	_	_	_	_	0.999636
-16	Wunde	Wunde	NN	NN	_	_	_	_	0.983708
-17	genäht	nähen	VVPP	VVPP	_	_	_	_	1.000000
-18	werden	werden	VAINF	VAINF	_	_	_	_	0.999998
-19	musste	müssen	VMFIN	VMFIN	_	_	_	_	1.000000
-20	.	.	$.	$.	_	_	_	_	1.000000
-
diff --git a/DeReKo/tutorial_examples/mini_test_raw.conllu b/DeReKo/tutorial_examples/mini_test_raw.conllu
deleted file mode 100644
index ae180cd..0000000
--- a/DeReKo/tutorial_examples/mini_test_raw.conllu
+++ /dev/null
@@ -1,1000 +0,0 @@
-# foundry = tree_tagger
-# filename = TAS01/JAN/00001/tree_tagger/morpho.xml  
-# text_id = TAS01_JAN.00001
-# start_offsets = 0 0 1 15 17 22 29 35 43 50 52 57 61 67 70 73 83 84 98 100 104 113 118 126 130 134 149 154 158 172 179 182 191 198 209 216 228
-# end_offsets = 229 1 15 16 21 28 34 42 49 51 56 60 66 69 72 82 84 98 99 103 112 116 125 129 133 148 153 157 171 178 181 189 197 208 215 228 229
-1	'	"	$(	$(	_	_	_	_	1.000000
-2	Highspeed-Netz	--	NN	NN	_	_	_	_	1.000000
-3	'	"	$(	$(	_	_	_	_	1.000000
-4	geht	gehen	VVFIN	VVFIN	_	_	_	_	0.999851
-5	wieder	wieder	ADV	ADV	_	_	_	_	0.999653
-6	Panne	Panne	NN	NN	_	_	_	_	1.000000
-7	behoben	beheben	VVFIN	VVFIN	_	_	_	_	0.723081
-8	ZÜRICH	Zürich	NE	NE	_	_	_	_	1.000000
-9	-	-	$(	$(	_	_	_	_	1.000000
-10	Nach	nach	APPR	APPR	_	_	_	_	0.993116
-11	der	die	ART	ART	_	_	_	_	0.999979
-12	Panne	Panne	NN	NN	_	_	_	_	1.000000
-13	im	in	APPRART	APPRART	_	_	_	_	1.000000
-14	so	so	ADV	ADV	_	_	_	_	0.999937
-15	genannten	genannt	ADJA	ADJA	_	_	_	_	1.000000
-16	'	"	$(	$(	_	_	_	_	1.000000
-17	Highspeed-Netz	--	NN	NN	_	_	_	_	1.000000
-18	'	"	$(	$(	_	_	_	_	1.000000
-19	der	die	ART	ART	_	_	_	_	0.966318
-20	Cablecom	--	NE	NE	_	_	_	_	0.984954
-21	vom	von	APPRART	APPRART	_	_	_	_	1.000000
-22	Freitag	Freitag	NN	NN	_	_	_	_	0.990459
-23	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-24	der	die	ART	ART	_	_	_	_	0.999804
-25	Internetzugang	Internetzugang	NN	NN	_	_	_	_	1.000000
-26	über	über	APPR	APPR	_	_	_	_	0.999907
-27	das	die	ART	ART	_	_	_	_	0.993720
-28	entsprechende	entsprechend	ADJA	ADJA	_	_	_	_	1.000000
-29	System	System	NN	NN	_	_	_	_	1.000000
-30	am	an	APPRART	APPRART	_	_	_	_	0.999838
-31	Samstag	Samstag	NN	NN	_	_	_	_	1.000000
-32	wieder	wieder	ADV	ADV	_	_	_	_	0.999927
-33	weitgehend	weitgehend	ADJD	ADJD	_	_	_	_	1.000000
-34	normal	normal	ADJD	ADJD	_	_	_	_	1.000000
-35	funktioniert	funktionieren	VVPP	VVPP	_	_	_	_	0.551329
-36	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 230 230 239 245 248 250 253 261 266 270 282 287 290 294 304 308 315 319 323 335 347 354 360
-# end_offsets = 361 238 244 248 249 252 260 265 269 281 286 289 293 303 307 314 318 322 334 346 353 360 361
-1	Cablecom	--	NE	NE	_	_	_	_	0.998928
-2	prüft	prüfen	VVFIN	VVFIN	_	_	_	_	1.000000
-3	nun	nun	ADV	ADV	_	_	_	_	0.999989
-4	,	,	$,	$,	_	_	_	_	1.000000
-5	in	in	APPR	APPR	_	_	_	_	1.000000
-6	welcher	welche	PIS	PIS	_	_	_	_	0.978436
-7	Form	Form	NN	NN	_	_	_	_	0.999692
-8	die	die	ART	ART	_	_	_	_	0.999693
-9	betroffenen	betroffen	ADJA	ADJA	_	_	_	_	1.000000
-10	rund	rund	ADV	ADV	_	_	_	_	0.999694
-11	12	12	CARD	CARD	_	_	_	_	1.000000
-12	000	@card@	CARD	CARD	_	_	_	_	0.994095
-13	Kundinnen	Kundin	NN	NN	_	_	_	_	1.000000
-14	und	und	KON	KON	_	_	_	_	1.000000
-15	Kunden	Kunde	NN	NN	_	_	_	_	0.989826
-16	für	für	APPR	APPR	_	_	_	_	1.000000
-17	den	die	ART	ART	_	_	_	_	0.999974
-18	Teilausfall	Teilausfall	NN	NN	_	_	_	_	1.000000
-19	entschädigt	entschädigen	VVPP	VVPP	_	_	_	_	0.999998
-20	werden	werden	VAINF	VAINF	_	_	_	_	0.999922
-21	können	können	VMFIN	VMFIN	_	_	_	_	0.997080
-22	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 362 362 366 374 388 402 406 409 413
-# end_offsets = 414 365 373 387 401 405 408 413 414
-1	Die	die	ART	ART	_	_	_	_	0.998436
-2	Prüfung	Prüfung	NN	NN	_	_	_	_	1.000000
-3	verschiedener	verschieden	ADJA	ADJA	_	_	_	_	0.991547
-4	Möglichkeiten	Möglichkeit	NN	NN	_	_	_	_	1.000000
-5	sei	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-6	im	in	APPRART	APPRART	_	_	_	_	1.000000
-7	Gang	Gang	NN	NN	_	_	_	_	1.000000
-8	.	.	$.	$.	_	_	_	_	1.000000
-
-# filename = TAS01/JAN/00002/tree_tagger/morpho.xml  
-# text_id = TAS01_JAN.00002
-# start_offsets = 0 0 5 14 20 24 28 36 43 47 58 76 83 87 90 97 109 116 118 123 132 139 145 153 159 166 170 178 180 184 191 196 203 217
-# end_offsets = 218 4 13 19 23 27 35 42 46 57 75 82 86 89 96 108 115 117 122 131 138 144 152 158 165 169 178 179 182 190 195 202 217 218
-1	Timo	Timo	NE	NE	_	_	_	_	1.000000
-2	Helbling	--	NE	NE	_	_	_	_	0.998979
-3	kehrt	kehrt	PTKVZ	PTKVZ	_	_	_	_	0.797658
-4	von	von	APPR	APPR	_	_	_	_	0.999850
-5	der	die	ART	ART	_	_	_	_	0.999969
-6	U-20-WM	--	NN	NN	_	_	_	_	0.826878
-7	zurück	zurück	PTKVZ	PTKVZ	_	_	_	_	0.896310
-8	ins	in	APPRART	APPRART	_	_	_	_	1.000000
-9	kanadische	kanadisch	ADJA	ADJA	_	_	_	_	1.000000
-10	Junioreneishockey	Junioreneishockey	NN	NN	_	_	_	_	1.000000
-11	Prügel	Prügel	NN	NN	_	_	_	_	1.000000
-12	für	für	APPR	APPR	_	_	_	_	1.000000
-13	90	90	CARD	CARD	_	_	_	_	1.000000
-14	Dollar	Dollar	NN	NN	_	_	_	_	1.000000
-15	Taschengeld	Taschengeld	NN	NN	_	_	_	_	1.000000
-16	MOSKAU	Moskau	NE	NE	_	_	_	_	1.000000
-17	-	-	$(	$(	_	_	_	_	1.000000
-18	Timo	Timo	NE	NE	_	_	_	_	1.000000
-19	Helbling	--	NE	NE	_	_	_	_	0.998972
-20	steigt	steigen	VVFIN	VVFIN	_	_	_	_	1.000000
-21	heute	heute	ADV	ADV	_	_	_	_	0.999998
-22	Sonntag	Sonntag	NN	NN	_	_	_	_	0.847388
-23	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-24	ungern	ungern	ADV	ADV	_	_	_	_	1.000000
-25	ins	in	APPRART	APPRART	_	_	_	_	1.000000
-26	Flugzeug	Flugzeug	NN	NN	_	_	_	_	1.000000
-27	,	,	$,	$,	_	_	_	_	1.000000
-28	um	um	KOUI	KOUI	_	_	_	_	0.975073
-29	wieder	wieder	ADV	ADV	_	_	_	_	0.999094
-30	nach	nach	APPR	APPR	_	_	_	_	0.996404
-31	Kanada	Kanada	NE	NE	_	_	_	_	1.000000
-32	zurückzukehren	zurückkehren	VVIZU	VVIZU	_	_	_	_	1.000000
-33	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 219 219 223 235 238 245 249 253 257 262 269 280 282 287 292 297 304 307 314 318 321 327 339 346 348 349 356 363 366 374 379 382 390 391
-# end_offsets = 392 222 234 237 244 248 252 256 261 268 280 281 286 291 296 303 306 313 317 320 326 338 346 347 349 355 362 365 373 378 381 390 391 392
-1	Die	die	ART	ART	_	_	_	_	0.994760
-2	Junioren-WM	Junioren-WM	NE	NE	_	_	_	_	1.000000
-3	in	in	APPR	APPR	_	_	_	_	1.000000
-4	Moskau	Moskau	NE	NE	_	_	_	_	1.000000
-5	war	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-6	für	für	APPR	APPR	_	_	_	_	1.000000
-7	ihn	er	PPER	PPER	_	_	_	_	1.000000
-8	eine	eine	ART	ART	_	_	_	_	0.999624
-9	schöne	schön	ADJA	ADJA	_	_	_	_	1.000000
-10	Abwechslung	Abwechslung	NN	NN	_	_	_	_	1.000000
-11	,	,	$,	$,	_	_	_	_	1.000000
-12	doch	doch	KON	KON	_	_	_	_	0.512407
-13	nach	nach	APPR	APPR	_	_	_	_	0.976726
-14	drei	drei	CARD	CARD	_	_	_	_	1.000000
-15	Wochen	Woche	NN	NN	_	_	_	_	1.000000
-16	in	in	APPR	APPR	_	_	_	_	1.000000
-17	Hotels	Hotel	NN	NN	_	_	_	_	1.000000
-18	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-19	er	er	PPER	PPER	_	_	_	_	1.000000
-20	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-21	unglücklich	unglücklich	ADJD	ADJD	_	_	_	_	1.000000
-22	darüber	darüber	PAV	PAV	_	_	_	_	0.995774
-23	,	,	$,	$,	_	_	_	_	1.000000
-24	"	"	$(	$(	_	_	_	_	1.000000
-25	wieder	wieder	ADV	ADV	_	_	_	_	0.999997
-26	einmal	einmal	ADV	ADV	_	_	_	_	1.000000
-27	im	in	APPRART	APPRART	_	_	_	_	1.000000
-28	eigenen	eigen	ADJA	ADJA	_	_	_	_	1.000000
-29	Bett	Bett	NN	NN	_	_	_	_	1.000000
-30	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999628
-31	schlafen	schlafen	VVINF	VVINF	_	_	_	_	0.999981
-32	"	"	$(	$(	_	_	_	_	1.000000
-33	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 393 393 397 404 409 413 417 421 425 430 434 441 452 454 458 462 465 477 485 497 500
-# end_offsets = 501 396 403 408 412 416 420 424 429 433 440 452 453 457 461 464 476 484 496 500 501
-1	Das	die	ART	ART	_	_	_	_	0.852618
-2	eigene	eigen	ADJA	ADJA	_	_	_	_	1.000000
-3	Bett	Bett	NN	NN	_	_	_	_	1.000000
-4	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-5	für	für	APPR	APPR	_	_	_	_	1.000000
-6	ihn	er	PPER	PPER	_	_	_	_	1.000000
-7	das	die	ART	ART	_	_	_	_	0.984922
-8	Bett	Bett	NN	NN	_	_	_	_	1.000000
-9	bei	bei	APPR	APPR	_	_	_	_	0.999898
-10	seiner	sein	PPOSAT	PPOSAT	_	_	_	_	0.999998
-11	Gastfamilie	Gastfamilie	NN	NN	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	die	die	PRELS	PRELS	_	_	_	_	0.999621
-14	ihn	er	PPER	PPER	_	_	_	_	1.000000
-15	im	in	APPRART	APPRART	_	_	_	_	1.000000
-16	kanadischen	kanadisch	ADJA	ADJA	_	_	_	_	1.000000
-17	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-18	aufgenommen	aufnehmen	VVPP	VVPP	_	_	_	_	0.995475
-19	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-20	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 502 502 506 514 517 521 526 534 546 559 561 565 569 575 578 592 602 608 610 615 625 630 634 647 660
-# end_offsets = 661 505 513 516 520 525 533 545 559 560 564 568 574 577 591 601 608 609 614 624 629 633 646 660 661
-1	Die	die	ART	ART	_	_	_	_	0.998436
-2	Spieler	Spieler	NN	NN	_	_	_	_	1.000000
-3	in	in	APPR	APPR	_	_	_	_	1.000000
-4	den	die	ART	ART	_	_	_	_	0.999466
-5	drei	drei	CARD	CARD	_	_	_	_	1.000000
-6	grossen	groß	ADJA	ADJA	_	_	_	_	1.000000
-7	kanadischen	kanadisch	ADJA	ADJA	_	_	_	_	1.000000
-8	Juniorenligen	Juniorenliga	NN	NN	_	_	_	_	1.000000
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	die	die	PRELS	PRELS	_	_	_	_	0.992435
-11	den	die	ART	ART	_	_	_	_	0.999732
-12	Klubs	Klub	NN	NN	_	_	_	_	1.000000
-13	im	in	APPRART	APPRART	_	_	_	_	1.000000
-14	Juniorendraft	--	NN	NN	_	_	_	_	0.998655
-15	zugeteilt	zuteilen	VVPP	VVPP	_	_	_	_	1.000000
-16	werden	werden	VAINF	VAINF	_	_	_	_	0.973945
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	sind	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-19	praktisch	praktisch	ADJD	ADJD	_	_	_	_	1.000000
-20	alle	alle	PIS	PIS	_	_	_	_	0.861349
-21	bei	bei	APPR	APPR	_	_	_	_	0.997633
-22	Gastfamilien	Gastfamilie	NN	NN	_	_	_	_	1.000000
-23	untergebracht	unterbringen	VVPP	VVPP	_	_	_	_	1.000000
-24	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 662 662 663 668 672 675 680 682 688 693 702 713 717 721 727 729 730 735 740 745 754 759 765
-# end_offsets = 766 663 667 671 674 680 681 687 692 701 712 716 720 727 728 730 734 739 744 753 758 765 766
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Fast	fast	ADV	ADV	_	_	_	_	1.000000
-3	wie	wie	KOKOM	KOKOM	_	_	_	_	0.965767
-4	zu	zu	APPR	APPR	_	_	_	_	0.997617
-5	Hause	Haus	NN	NN	_	_	_	_	1.000000
-6	"	"	$(	$(	_	_	_	_	1.000000
-7	fühlt	fühlen	VVFIN	VVFIN	_	_	_	_	0.998961
-8	sich	sich	PRF	PRF	_	_	_	_	1.000000
-9	Helbling	--	NE	NE	_	_	_	_	0.993286
-10	inzwischen	inzwischen	ADV	ADV	_	_	_	_	1.000000
-11	bei	bei	APPR	APPR	_	_	_	_	0.999705
-12	der	die	ART	ART	_	_	_	_	0.989485
-13	seinen	sein	PPOSAT	PPOSAT	_	_	_	_	0.997144
-14	,	,	$,	$,	_	_	_	_	1.000000
-15	"	"	$(	$(	_	_	_	_	1.000000
-16	alle	alle	PIAT	PIAT	_	_	_	_	0.758817
-17	sind	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-18	dort	dort	ADV	ADV	_	_	_	_	1.000000
-19	verrückt	verrückt	ADJD	ADJD	_	_	_	_	0.661730
-20	nach	nach	APPR	APPR	_	_	_	_	0.994375
-21	Hockey	Hockey	NN	NN	_	_	_	_	1.000000
-22	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 766 766 768 772 783 793 798 802 808 821 829 833 840 844 849 856 861 863 865 869 874 878 882 888 893 902
-# end_offsets = 903 767 771 782 792 797 801 807 820 828 832 839 843 848 855 860 863 864 868 873 877 881 887 892 902 903
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Der	die	ART	ART	_	_	_	_	0.993481
-3	19-jährige	19-jährig	ADJA	ADJA	_	_	_	_	1.000000
-4	Schweizer	Schweizer	NN	NN	_	_	_	_	0.991990
-5	lebt	leben	VVFIN	VVFIN	_	_	_	_	0.999998
-6	bei	bei	APPR	APPR	_	_	_	_	0.999863
-7	einer	eine	ART	ART	_	_	_	_	0.996882
-8	dreiköpfigen	dreiköpfig	ADJA	ADJA	_	_	_	_	1.000000
-9	Familie	Familie	NN	NN	_	_	_	_	1.000000
-10	mit	mit	APPR	APPR	_	_	_	_	0.999017
-11	Mutter	Mutter	NN	NN	_	_	_	_	1.000000
-12	und	und	KON	KON	_	_	_	_	1.000000
-13	zwei	zwei	CARD	CARD	_	_	_	_	1.000000
-14	Söhnen	Sohn	NN	NN	_	_	_	_	1.000000
-15	über	über	APPR	APPR	_	_	_	_	0.999948
-16	20	20	CARD	CARD	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	der	die	ART	ART	_	_	_	_	0.951657
-19	Mann	Mann	NN	NN	_	_	_	_	0.989207
-20	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-21	vor	vor	APPR	APPR	_	_	_	_	0.977751
-22	einem	eine	ART	ART	_	_	_	_	0.998913
-23	Jahr	Jahr	NN	NN	_	_	_	_	1.000000
-24	gestorben	sterben	VVPP	VVPP	_	_	_	_	1.000000
-25	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 904 904 905 916 922 926 931 939 941 944 951 957 961 968 977 980 986 987 989 998 1003 1011
-# end_offsets = 1012 905 915 921 925 930 939 940 943 950 956 960 967 976 979 986 987 988 997 1002 1011 1012
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Vielleicht	vielleicht	ADV	ADV	_	_	_	_	1.000000
-3	haben	haben	VAFIN	VAFIN	_	_	_	_	0.999887
-4	sie	sie	PPER	PPER	_	_	_	_	1.000000
-5	mich	ich	PRF	PRF	_	_	_	_	0.940417
-6	genommen	nehmen	VVPP	VVPP	_	_	_	_	0.979296
-7	,	,	$,	$,	_	_	_	_	1.000000
-8	um	um	KOUI	KOUI	_	_	_	_	0.975054
-9	wieder	wieder	ADV	ADV	_	_	_	_	0.999875
-10	etwas	etwas	ADV	ADV	_	_	_	_	0.788603
-11	auf	auf	APPR	APPR	_	_	_	_	0.998236
-12	andere	andere	PIAT	PIAT	_	_	_	_	0.887600
-13	Gedanken	Gedanke	NN	NN	_	_	_	_	1.000000
-14	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999597
-15	kommen	kommen	VVINF	VVINF	_	_	_	_	0.999949
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	vermutet	vermuten	VVFIN	VVFIN	_	_	_	_	0.984181
-19	Timo	Timo	NE	NE	_	_	_	_	1.000000
-20	Helbling	--	NE	NE	_	_	_	_	0.999202
-21	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 1013 1013 1020 1026 1029 1040 1045 1047 1051 1059 1064 1075 1078 1081
-# end_offsets = 1082 1019 1025 1028 1039 1045 1046 1050 1058 1063 1074 1077 1081 1082
-1	Klagen	klagen	VVINF	VVINF	_	_	_	_	0.809488
-2	könne	können	VMFIN	VMFIN	_	_	_	_	1.000000
-3	er	er	PPER	PPER	_	_	_	_	1.000000
-4	jedenfalls	jedenfalls	ADV	ADV	_	_	_	_	1.000000
-5	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-6	,	,	$,	$,	_	_	_	_	1.000000
-7	man	man	PIS	PIS	_	_	_	_	1.000000
-8	kümmere	kümmern	VVFIN	VVFIN	_	_	_	_	1.000000
-9	sich	sich	PRF	PRF	_	_	_	_	1.000000
-10	vorzüglich	vorzüglich	ADJD	ADJD	_	_	_	_	1.000000
-11	um	um	APPR	APPR	_	_	_	_	0.995016
-12	ihm	er	PPER	PPER	_	_	_	_	1.000000
-13	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 1083 1083 1087 1099 1105 1116 1122 1132 1138 1143 1148 1152 1158 1165 1170 1176 1185 1190 1196 1199 1210
-# end_offsets = 1211 1086 1098 1104 1115 1121 1131 1137 1141 1147 1151 1157 1164 1169 1175 1184 1189 1195 1198 1210 1211
-1	Das	die	ART	ART	_	_	_	_	0.962601
-2	Versprechen	Versprechen	NN	NN	_	_	_	_	1.000000
-3	eines	eine	ART	ART	_	_	_	_	0.998544
-4	Testspiels	Testspiel	NN	NN	_	_	_	_	0.662087
-5	hielt	halten	VVFIN	VVFIN	_	_	_	_	1.000000
-6	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-7	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-8	ein	ein	PTKVZ	PTKVZ	_	_	_	_	0.602706
-9	Seit	seit	APPR	APPR	_	_	_	_	0.984396
-10	gut	gut	ADJD	ADJD	_	_	_	_	0.999984
-11	einem	eine	ART	ART	_	_	_	_	0.997705
-12	halben	halb	ADJA	ADJA	_	_	_	_	1.000000
-13	Jahr	Jahr	NN	NN	_	_	_	_	1.000000
-14	sucht	suchen	VVFIN	VVFIN	_	_	_	_	1.000000
-15	Helbling	--	NE	NE	_	_	_	_	0.995612
-16	sein	sein	PPOSAT	PPOSAT	_	_	_	_	0.995607
-17	Glück	Glück	NN	NN	_	_	_	_	1.000000
-18	in	in	APPR	APPR	_	_	_	_	1.000000
-19	Nordamerika	Nordamerika	NE	NE	_	_	_	_	1.000000
-20	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 1212 1212 1215 1227 1234 1249 1252 1258 1276 1280 1284 1294 1303 1305 1309 1313 1322 1326 1335 1345 1346 1349 1351 1355 1360 1363 1371 1385
-# end_offsets = 1386 1214 1226 1233 1248 1251 1257 1275 1279 1283 1293 1303 1304 1308 1312 1321 1325 1334 1344 1346 1349 1350 1354 1359 1362 1370 1385 1386
-1	Im	in	APPRART	APPRART	_	_	_	_	1.000000
-2	vergangenen	vergangen	ADJA	ADJA	_	_	_	_	1.000000
-3	Sommer	Sommer	NN	NN	_	_	_	_	0.956930
-4	unterzeichnete	unterzeichnen	VVFIN	VVFIN	_	_	_	_	0.999855
-5	er	er	PPER	PPER	_	_	_	_	1.000000
-6	einen	eine	ART	ART	_	_	_	_	0.973616
-7	Dreijahresvertrag	Dreijahresvertrag	NN	NN	_	_	_	_	1.000000
-8	bei	bei	APPR	APPR	_	_	_	_	0.999816
-9	den	die	ART	ART	_	_	_	_	0.999938
-10	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-11	Predators	--	NN	NN	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	die	die	PRELS	PRELS	_	_	_	_	0.999621
-14	ihn	er	PPER	PPER	_	_	_	_	1.000000
-15	zunächst	zunächst	ADV	ADV	_	_	_	_	0.999632
-16	ans	ans	APPRART	APPRART	_	_	_	_	1.000000
-17	Farmteam	Farmteam	NN	NN	_	_	_	_	1.000000
-18	Milwaukee	Milwaukee	NE	NE	_	_	_	_	1.000000
-19	(	(	$(	$(	_	_	_	_	1.000000
-20	IHL	--	NE	NE	_	_	_	_	0.976399
-21	)	)	$(	$(	_	_	_	_	1.000000
-22	und	und	KON	KON	_	_	_	_	1.000000
-23	dann	dann	ADV	ADV	_	_	_	_	1.000000
-24	zu	zu	APPR	APPR	_	_	_	_	0.996294
-25	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-26	weiterreichten	weiterreichen	VVFIN	VVFIN	_	_	_	_	0.999075
-27	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 1387 1387 1396 1405 1412 1416 1417 1428 1430 1434 1444 1448 1453 1457 1458 1466 1468 1481 1483 1486 1489 1493 1497 1507 1510 1519 1527 1533
-# end_offsets = 1534 1395 1404 1411 1415 1417 1428 1429 1433 1443 1447 1452 1456 1458 1466 1467 1481 1482 1485 1488 1492 1496 1506 1509 1518 1526 1533 1534
-1	Helbling	--	NE	NE	_	_	_	_	0.838584
-2	besuchte	besuchen	VVFIN	VVFIN	_	_	_	_	0.998789
-3	zuerst	zuerst	ADV	ADV	_	_	_	_	1.000000
-4	das	die	ART	ART	_	_	_	_	0.899883
-5	"	"	$(	$(	_	_	_	_	1.000000
-6	Rookie-Camp	--	NN	NN	_	_	_	_	0.998815
-7	"	"	$(	$(	_	_	_	_	1.000000
-8	der	die	ART	ART	_	_	_	_	0.996070
-9	Predators	--	NN	NN	_	_	_	_	1.000000
-10	und	und	KON	KON	_	_	_	_	1.000000
-11	dann	dann	ADV	ADV	_	_	_	_	1.000000
-12	das	die	ART	ART	_	_	_	_	0.899883
-13	"	"	$(	$(	_	_	_	_	1.000000
-14	richtige	richtig	ADJA	ADJA	_	_	_	_	1.000000
-15	"	"	$(	$(	_	_	_	_	1.000000
-16	Trainingscamp	Trainingscamp	NN	NN	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	wo	wo	PWAV	PWAV	_	_	_	_	1.000000
-19	er	er	PPER	PPER	_	_	_	_	1.000000
-20	von	von	APPR	APPR	_	_	_	_	0.999959
-21	den	die	ART	ART	_	_	_	_	0.999974
-22	Neulingen	Neuling	NN	NN	_	_	_	_	1.000000
-23	am	am	PTKA	PTKA	_	_	_	_	0.501702
-24	längsten	lang	ADJD	ADJD	_	_	_	_	0.601827
-25	bleiben	bleiben	VVINF	VVINF	_	_	_	_	0.999999
-26	durfte	dürfen	VMFIN	VMFIN	_	_	_	_	1.000000
-27	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 1535 1535 1541 1547 1553 1563 1567 1573 1577 1596 1600 1609 1611 1616 1621 1626 1632 1636 1643 1663 1670 1673 1675 1684 1687 1691 1698 1700 1703 1717 1729 1732 1738
-# end_offsets = 1739 1540 1546 1552 1562 1566 1572 1576 1595 1599 1609 1610 1615 1620 1625 1631 1635 1642 1662 1669 1673 1674 1683 1686 1690 1698 1699 1702 1716 1728 1731 1738 1739
-1	Coach	Coach	NN	NN	_	_	_	_	0.936863
-2	Barry	Barry	NE	NE	_	_	_	_	1.000000
-3	Trotz	Trotz	NN	NN	_	_	_	_	0.999457
-4	versprach	versprechen	VVFIN	VVFIN	_	_	_	_	1.000000
-5	ihm	er	PPER	PPER	_	_	_	_	1.000000
-6	sogar	sogar	ADV	ADV	_	_	_	_	1.000000
-7	ein	eine	ART	ART	_	_	_	_	0.993896
-8	Vorbereitungsspiel	Vorbereitungsspiel	NN	NN	_	_	_	_	1.000000
-9	mit	mit	APPR	APPR	_	_	_	_	0.999656
-10	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-11	,	,	$,	$,	_	_	_	_	1.000000
-12	doch	doch	KON	KON	_	_	_	_	0.875020
-13	weil	weil	KOUS	KOUS	_	_	_	_	0.998620
-14	sich	sich	PRF	PRF	_	_	_	_	1.000000
-15	Trotz	trotz	APPR	APPR	_	_	_	_	0.960345
-16	mit	mit	APPR	APPR	_	_	_	_	0.999954
-17	seinen	sein	PPOSAT	PPOSAT	_	_	_	_	1.000000
-18	Personalentscheiden	Personalentscheid	NN	NN	_	_	_	_	1.000000
-19	schwer	schwer	ADJD	ADJD	_	_	_	_	0.986718
-20	tat	tun	VVFIN	VVFIN	_	_	_	_	1.000000
-21	,	,	$,	$,	_	_	_	_	1.000000
-22	brauchte	brauchen	VVFIN	VVFIN	_	_	_	_	1.000000
-23	er	er	PPER	PPER	_	_	_	_	1.000000
-24	die	die	ART	ART	_	_	_	_	0.998283
-25	Partien	Partie	NN	NN	_	_	_	_	1.000000
-26	,	,	$,	$,	_	_	_	_	1.000000
-27	um	um	KOUI	KOUI	_	_	_	_	0.896269
-28	routiniertere	routiniert	ADJA	ADJA	_	_	_	_	1.000000
-29	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-30	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999630
-31	testen	testen	VVINF	VVINF	_	_	_	_	0.999983
-32	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 1740 1740 1749 1758 1763 1768 1788 1792 1801 1803 1806 1812 1815 1819 1826 1831 1833 1838 1841 1845 1846 1851 1854 1856 1860
-# end_offsets = 1861 1748 1757 1762 1767 1787 1791 1801 1802 1805 1811 1814 1818 1825 1831 1832 1837 1840 1844 1846 1850 1854 1855 1860 1861
-1	Helbling	--	NE	NE	_	_	_	_	0.838757
-2	bestritt	bestreiten	VVFIN	VVFIN	_	_	_	_	1.000000
-3	dann	dann	ADV	ADV	_	_	_	_	1.000000
-4	zwei	zwei	CARD	CARD	_	_	_	_	1.000000
-5	Freundschaftsspiele	Freundschaftsspiel	NN	NN	_	_	_	_	1.000000
-6	mit	mit	APPR	APPR	_	_	_	_	0.999656
-7	Milwaukee	Milwaukee	NE	NE	_	_	_	_	1.000000
-8	,	,	$,	$,	_	_	_	_	1.000000
-9	in	in	APPR	APPR	_	_	_	_	1.000000
-10	denen	die	PRELS	PRELS	_	_	_	_	0.747613
-11	er	er	PPER	PPER	_	_	_	_	1.000000
-12	das	die	ART	ART	_	_	_	_	0.984922
-13	Gefühl	Gefühl	NN	NN	_	_	_	_	1.000000
-14	hatte	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-15	,	,	$,	$,	_	_	_	_	1.000000
-16	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-17	es	es	PPER	PPER	_	_	_	_	1.000000
-18	ihm	er	PPER	PPER	_	_	_	_	1.000000
-19	"	"	$(	$(	_	_	_	_	1.000000
-20	sehr	sehr	ADV	ADV	_	_	_	_	1.000000
-21	gut	gut	ADJD	ADJD	_	_	_	_	0.999439
-22	"	"	$(	$(	_	_	_	_	1.000000
-23	lief	laufen	VVFIN	VVFIN	_	_	_	_	1.000000
-24	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 1862 1862 1873 1882 1886 1890 1897 1902 1907 1913 1920 1923 1930 1932 1935 1947 1950 1957
-# end_offsets = 1958 1872 1881 1885 1889 1896 1901 1906 1912 1919 1922 1930 1931 1934 1946 1949 1957 1958
-1	Gleichwohl	gleichwohl	ADV	ADV	_	_	_	_	0.630452
-2	schickte	schicken	VVFIN	VVFIN	_	_	_	_	1.000000
-3	man	man	PIS	PIS	_	_	_	_	1.000000
-4	ihn	er	PPER	PPER	_	_	_	_	1.000000
-5	danach	danach	PAV	PAV	_	_	_	_	1.000000
-6	noch	noch	ADV	ADV	_	_	_	_	0.980091
-7	eine	eine	ART	ART	_	_	_	_	0.998731
-8	Stufe	Stufe	NN	NN	_	_	_	_	1.000000
-9	tiefer	tief	ADJD	ADJD	_	_	_	_	0.998813
-10	zu	zu	APPR	APPR	_	_	_	_	0.995289
-11	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	um	um	KOUI	KOUI	_	_	_	_	0.678412
-14	Spielpraxis	Spielpraxen	NN	NN	_	_	_	_	1.000000
-15	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999640
-16	sammeln	sammeln	VVINF	VVINF	_	_	_	_	0.999993
-17	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 1959 1959 1963 1973 1978 1981 1991 1995 2002 2014 2021 2023 2029 2033 2043
-# end_offsets = 2044 1962 1972 1977 1980 1990 1994 2001 2013 2021 2022 2028 2032 2043 2044
-1	Bei	bei	APPR	APPR	_	_	_	_	0.999996
-2	Milwaukee	Milwaukee	NE	NE	_	_	_	_	1.000000
-3	wäre	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-4	er	er	PPER	PPER	_	_	_	_	1.000000
-5	höchstens	höchstens	ADV	ADV	_	_	_	_	1.000000
-6	der	die	ART	ART	_	_	_	_	0.999767
-7	fünfte	fünft	ADJA	ADJA	_	_	_	_	1.000000
-8	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-9	gewesen	sein	VAPP	VAPP	_	_	_	_	1.000000
-10	,	,	$,	$,	_	_	_	_	1.000000
-11	wurde	werden	VAFIN	VAFIN	_	_	_	_	1.000000
-12	ihm	er	PPER	PPER	_	_	_	_	1.000000
-13	mitgeteilt	mitteilen	VVPP	VVPP	_	_	_	_	0.982983
-14	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 2045 2045 2048 2056 2064 2068 2073 2080 2084 2090 2094 2100 2107 2110 2118 2126 2135 2139 2146 2148 2152 2155 2160 2166 2173 2181 2185 2191 2201 2207 2209 2213 2218 2224 2228
-# end_offsets = 2229 2047 2055 2063 2067 2072 2079 2083 2089 2093 2099 2105 2109 2117 2125 2134 2138 2146 2147 2151 2154 2159 2165 2172 2179 2184 2190 2200 2206 2208 2212 2217 2223 2228 2229
-1	30	30	CARD	CARD	_	_	_	_	1.000000
-2	Minuten	Minute	NN	NN	_	_	_	_	1.000000
-3	Eiszeit	Eiszeit	NN	NN	_	_	_	_	1.000000
-4	und	und	KON	KON	_	_	_	_	1.000000
-5	drei	drei	CARD	CARD	_	_	_	_	1.000000
-6	Spiele	Spiel	NN	NN	_	_	_	_	1.000000
-7	pro	pro	APPR	APPR	_	_	_	_	1.000000
-8	Woche	Woche	NN	NN	_	_	_	_	1.000000
-9	als	als	KOKOM	KOKOM	_	_	_	_	0.992059
-10	beste	gut	ADJA	ADJA	_	_	_	_	1.000000
-11	Lehre	Lehre	NN	NN	_	_	_	_	1.000000
-12	In	in	APPR	APPR	_	_	_	_	0.999872
-13	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-14	bekommt	bekommen	VVFIN	VVFIN	_	_	_	_	1.000000
-15	Helbling	--	NE	NE	_	_	_	_	0.988560
-16	die	die	ART	ART	_	_	_	_	0.999996
-17	Eiszeit	Eiszeit	NN	NN	_	_	_	_	1.000000
-18	,	,	$,	$,	_	_	_	_	1.000000
-19	die	die	PRELS	PRELS	_	_	_	_	0.999621
-20	er	er	PPER	PPER	_	_	_	_	1.000000
-21	sich	sich	PRF	PRF	_	_	_	_	1.000000
-22	schon	schon	ADV	ADV	_	_	_	_	0.999989
-23	letzte	letzt	ADJA	ADJA	_	_	_	_	1.000000
-24	Saison	Saison	NN	NN	_	_	_	_	1.000000
-25	bei	bei	APPR	APPR	_	_	_	_	0.999811
-26	Davos	Davos	NE	NE	_	_	_	_	1.000000
-27	gewünscht	wünschen	VVPP	VVPP	_	_	_	_	1.000000
-28	hätte	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-29	-	-	$(	$(	_	_	_	_	1.000000
-30	und	und	KON	KON	_	_	_	_	1.000000
-31	noch	noch	ADV	ADV	_	_	_	_	0.996691
-32	etwas	etwas	ADV	ADV	_	_	_	_	0.847276
-33	mehr	mehr	ADV	ADV	_	_	_	_	0.792583
-34	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 2230 2230 2233 2240 2244 2247 2250 2258 2262 2267 2269 2273 2287 2294 2306 2311 2318 2320
-# end_offsets = 2321 2232 2239 2243 2246 2249 2257 2261 2267 2268 2272 2286 2293 2305 2310 2317 2320 2321
-1	Er	er	PPER	PPER	_	_	_	_	1.000000
-2	spielt	spielen	VVFIN	VVFIN	_	_	_	_	0.999993
-3	bis	bis	KON	KON	_	_	_	_	0.766714
-4	zu	zu	APPR	APPR	_	_	_	_	0.993107
-5	30	30	CARD	CARD	_	_	_	_	1.000000
-6	Minuten	Minute	NN	NN	_	_	_	_	1.000000
-7	pro	pro	APPR	APPR	_	_	_	_	1.000000
-8	Match	Match	NN	NN	_	_	_	_	1.000000
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	und	und	KON	KON	_	_	_	_	1.000000
-11	normalerweise	normalerweise	ADV	ADV	_	_	_	_	1.000000
-12	stehen	stehen	VVFIN	VVFIN	_	_	_	_	0.999932
-13	wöchentlich	wöchentlich	ADJD	ADJD	_	_	_	_	1.000000
-14	drei	drei	CARD	CARD	_	_	_	_	1.000000
-15	Spiele	Spiel	NN	NN	_	_	_	_	1.000000
-16	an	an	PTKVZ	PTKVZ	_	_	_	_	0.969773
-17	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 2322 2322 2331 2336 2339 2349 2351 2359 2363 2371 2376 2384 2392
-# end_offsets = 2393 2330 2335 2338 2349 2350 2358 2362 2370 2375 2383 2392 2393
-1	Meistens	meistens	ADV	ADV	_	_	_	_	1.000000
-2	wird	werden	VAFIN	VAFIN	_	_	_	_	1.000000
-3	am	an	APPRART	APPRART	_	_	_	_	0.998602
-4	Donnerstag	Donnerstag	NN	NN	_	_	_	_	1.000000
-5	,	,	$,	$,	_	_	_	_	1.000000
-6	Freitag	Freitag	NN	NN	_	_	_	_	0.933988
-7	und	und	KON	KON	_	_	_	_	1.000000
-8	Samstag	Samstag	NN	NN	_	_	_	_	1.000000
-9	oder	oder	KON	KON	_	_	_	_	1.000000
-10	Sonntag	Sonntag	NN	NN	_	_	_	_	0.767852
-11	gespielt	spielen	VVPP	VVPP	_	_	_	_	0.987774
-12	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 2394 2394 2403 2407 2416 2418 2423 2426 2429 2436 2443 2449 2455 2460 2468 2472 2477 2478 2482 2489 2498 2500 2508 2511
-# end_offsets = 2512 2402 2406 2416 2417 2422 2425 2428 2435 2442 2448 2454 2459 2467 2471 2476 2478 2481 2488 2498 2499 2507 2511 2512
-1	Helbling	--	NE	NE	_	_	_	_	0.772217
-2	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-3	überzeugt	überzeugt	ADJD	ADJD	_	_	_	_	0.764430
-4	,	,	$,	$,	_	_	_	_	1.000000
-5	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-6	er	er	PPER	PPER	_	_	_	_	1.000000
-7	in	in	APPR	APPR	_	_	_	_	1.000000
-8	dieser	dies	PDAT	PDAT	_	_	_	_	0.999877
-9	Saison	Saison	NN	NN	_	_	_	_	1.000000
-10	schon	schon	ADV	ADV	_	_	_	_	0.999995
-11	enorm	enorm	ADJD	ADJD	_	_	_	_	1.000000
-12	viel	viel	ADV	ADV	_	_	_	_	0.713656
-13	gelernt	lernen	VVPP	VVPP	_	_	_	_	1.000000
-14	und	und	KON	KON	_	_	_	_	1.000000
-15	sich	sich	PRF	PRF	_	_	_	_	1.000000
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	ans	ans	APPRART	APPRART	_	_	_	_	1.000000
-18	andere	andere	PIS	PIS	_	_	_	_	0.899923
-19	Eishockey	Eishockey	NN	NN	_	_	_	_	1.000000
-20	"	"	$(	$(	_	_	_	_	1.000000
-21	gewöhnt	gewöhnen	VVPP	VVPP	_	_	_	_	0.800978
-22	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-23	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 2513 2513 2514 2518 2525 2529 2532 2536 2540 2546 2549 2554 2558 2561 2565 2578 2579 2580 2582 2588 2591 2594 2596 2597 2602 2609 2614 2618 2623 2625 2628 2633 2636 2646
-# end_offsets = 2647 2514 2517 2524 2528 2531 2535 2539 2545 2548 2553 2557 2560 2564 2577 2579 2580 2581 2587 2590 2594 2595 2597 2601 2608 2613 2617 2623 2624 2627 2632 2635 2646 2647
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Das	die	ART	ART	_	_	_	_	0.937509
-3	Niveau	Niveau	NN	NN	_	_	_	_	1.000000
-4	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-5	in	in	APPR	APPR	_	_	_	_	1.000000
-6	der	die	ART	ART	_	_	_	_	0.999671
-7	OHL	--	NN	NN	_	_	_	_	0.609433
-8	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-9	so	so	ADV	ADV	_	_	_	_	0.999995
-10	hoch	hoch	ADJD	ADJD	_	_	_	_	0.940128
-11	wie	wie	KOKOM	KOKOM	_	_	_	_	0.999736
-12	in	in	APPR	APPR	_	_	_	_	1.000000
-13	der	die	ART	ART	_	_	_	_	0.999980
-14	Nationalliga	Nationalliga	NN	NN	_	_	_	_	1.000000
-15	A	A	FM	FM	_	_	_	_	0.649062
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	räumt	räumen	VVFIN	VVFIN	_	_	_	_	0.999984
-19	er	er	PPER	PPER	_	_	_	_	1.000000
-20	ein	ein	PTKVZ	PTKVZ	_	_	_	_	0.997919
-21	,	,	$,	$,	_	_	_	_	1.000000
-22	"	"	$(	$(	_	_	_	_	1.000000
-23	doch	doch	KON	KON	_	_	_	_	0.511263
-24	Spiele	Spiel	NN	NN	_	_	_	_	1.000000
-25	sind	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-26	das	die	ART	ART	_	_	_	_	0.972196
-27	Beste	Beste	NN	NN	_	_	_	_	0.833569
-28	,	,	$,	$,	_	_	_	_	1.000000
-29	um	um	KOUI	KOUI	_	_	_	_	0.978288
-30	sich	sich	PRF	PRF	_	_	_	_	1.000000
-31	zu	zu	PTKZU	PTKZU	_	_	_	_	0.955683
-32	entwickeln	entwickeln	VVINF	VVINF	_	_	_	_	0.995871
-33	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 2647 2647 2649 2658 2662 2670 2674 2683 2697 2705
-# end_offsets = 2706 2648 2657 2661 2669 2673 2682 2696 2705 2706
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Helbling	--	NE	NE	_	_	_	_	0.444734
-3	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-4	ruhiger	ruhig	ADJD	ADJD	_	_	_	_	0.979911
-5	und	und	KON	KON	_	_	_	_	1.000000
-6	defensiv	defensiv	ADJD	ADJD	_	_	_	_	1.000000
-7	verlässlicher	verlässlich	ADJD	ADJD	_	_	_	_	0.999384
-8	geworden	werden	VAPP	VAPP	_	_	_	_	1.000000
-9	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 2707 2707 2708 2713 2719 2724 2733 2737 2742 2747 2753 2762 2763 2765 2770 2773 2786
-# end_offsets = 2787 2708 2712 2718 2723 2732 2736 2741 2746 2752 2762 2763 2764 2769 2772 2786 2787
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Eins	eins	CARD	CARD	_	_	_	_	0.780848
-3	gegen	gegen	APPR	APPR	_	_	_	_	0.999999
-4	eins	eins	CARD	CARD	_	_	_	_	1.000000
-5	verliere	verlieren	VVFIN	VVFIN	_	_	_	_	1.000000
-6	ich	ich	PPER	PPER	_	_	_	_	1.000000
-7	kaum	kaum	ADV	ADV	_	_	_	_	1.000000
-8	mehr	mehr	ADV	ADV	_	_	_	_	0.914794
-9	einen	eine	ART	ART	_	_	_	_	0.975250
-10	Zweikampf	Zweikampf	NN	NN	_	_	_	_	1.000000
-11	"	"	$(	$(	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	sagt	sagen	VVFIN	VVFIN	_	_	_	_	0.999999
-14	er	er	PPER	PPER	_	_	_	_	1.000000
-15	selbstbewusst	selbstbewusst	ADJD	ADJD	_	_	_	_	1.000000
-16	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 2788 2788 2792 2795 2799 2806 2808 2813 2816 2820 2824 2832 2843 2848 2854 2858 2864 2867 2869 2873 2878 2886 2894 2898 2904 2912 2927
-# end_offsets = 2928 2791 2794 2798 2806 2807 2812 2815 2819 2823 2831 2842 2847 2853 2857 2863 2867 2868 2872 2877 2885 2893 2897 2903 2911 2927 2928
-1	Und	und	KON	KON	_	_	_	_	1.000000
-2	er	er	PPER	PPER	_	_	_	_	1.000000
-3	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-4	gelernt	lernen	VVPP	VVPP	_	_	_	_	1.000000
-5	,	,	$,	$,	_	_	_	_	1.000000
-6	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-7	es	es	PPER	PPER	_	_	_	_	1.000000
-8	auf	auf	APPR	APPR	_	_	_	_	0.996028
-9	den	die	ART	ART	_	_	_	_	0.999884
-10	kleinen	klein	ADJA	ADJA	_	_	_	_	1.000000
-11	Eisfeldern	Eisfeld	NN	NN	_	_	_	_	1.000000
-12	fast	fast	ADV	ADV	_	_	_	_	1.000000
-13	immer	immer	ADV	ADV	_	_	_	_	1.000000
-14	das	die	ART	ART	_	_	_	_	0.994554
-15	Beste	Beste	NN	NN	_	_	_	_	0.965535
-16	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	den	die	ART	ART	_	_	_	_	0.991341
-19	Puck	Puck	NN	NN	_	_	_	_	1.000000
-20	einfach	einfach	ADJD	ADJD	_	_	_	_	0.940820
-21	schnell	schnell	ADJD	ADJD	_	_	_	_	1.000000
-22	der	die	ART	ART	_	_	_	_	0.999941
-23	Bande	Bande	NN	NN	_	_	_	_	1.000000
-24	entlang	entlang	APPO	APPO	_	_	_	_	0.993429
-25	hinauszuspielen	hinausspielen	VVIZU	VVIZU	_	_	_	_	1.000000
-26	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 2929 2929 2932 2944 2949 2953 2959 2971 2977 2985 2987 2992 2995 2999 3007 3013 3017 3026 3033 3042 3044 3047 3051 3055 3057 3062 3067 3071 3079 3081 3086 3088 3097 3099 3108 3110 3118 3123 3129
-# end_offsets = 3130 2931 2943 2948 2952 2958 2970 2976 2985 2986 2991 2994 2998 3006 3012 3016 3025 3032 3041 3043 3046 3050 3055 3056 3061 3066 3070 3079 3080 3086 3087 3097 3098 3108 3109 3117 3122 3129 3130
-1	In	in	APPR	APPR	_	_	_	_	0.999968
-2	Nordamerika	Nordamerika	NE	NE	_	_	_	_	1.000000
-3	wird	werden	VAFIN	VAFIN	_	_	_	_	1.000000
-4	von	von	APPR	APPR	_	_	_	_	0.999757
-5	einem	eine	ART	ART	_	_	_	_	0.998932
-6	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-7	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-8	erwartet	erwarten	VVPP	VVPP	_	_	_	_	0.878218
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-11	er	er	PPER	PPER	_	_	_	_	1.000000
-12	die	die	ART	ART	_	_	_	_	0.998283
-13	Stürmer	Stürmer	NN	NN	_	_	_	_	1.000000
-14	stets	stets	ADV	ADV	_	_	_	_	1.000000
-15	mit	mit	APPR	APPR	_	_	_	_	0.999553
-16	genialen	genial	ADJA	ADJA	_	_	_	_	1.000000
-17	Pässen	Pass	NN	NN	_	_	_	_	1.000000
-18	lanciert	lancieren	VVPP	VVPP	_	_	_	_	0.797526
-19	-	-	$(	$(	_	_	_	_	1.000000
-20	es	es	PPER	PPER	_	_	_	_	1.000000
-21	sei	sein	VAFIN	VAFIN	_	_	_	_	0.999995
-22	denn	denn	ADV	ADV	_	_	_	_	0.973451
-23	,	,	$,	$,	_	_	_	_	1.000000
-24	sein	sein	PPOSAT	PPOSAT	_	_	_	_	0.999999
-25	Name	Name	NN	NN	_	_	_	_	1.000000
-26	sei	sein	VAFIN	VAFIN	_	_	_	_	0.999999
-27	Lidström	--	NN	NN	_	_	_	_	0.953224
-28	,	,	$,	$,	_	_	_	_	1.000000
-29	Blake	Blake	NE	NE	_	_	_	_	1.000000
-30	,	,	$,	$,	_	_	_	_	1.000000
-31	Ozolinsch	--	NN	NN	_	_	_	_	1.000000
-32	,	,	$,	$,	_	_	_	_	1.000000
-33	Gontschar	--	NN	NN	_	_	_	_	0.999505
-34	,	,	$,	$,	_	_	_	_	1.000000
-35	Pronger	--	VVFIN	VVFIN	_	_	_	_	0.413156
-36	oder	oder	KON	KON	_	_	_	_	1.000000
-37	Leetch	--	VVFIN	VVFIN	_	_	_	_	0.594109
-38	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 3131 3131 3135 3145 3153 3157 3169 3176 3178 3188 3190 3196 3202 3209
-# end_offsets = 3210 3134 3144 3152 3156 3168 3176 3177 3188 3189 3195 3200 3209 3210
-1	Bei	bei	APPR	APPR	_	_	_	_	0.999996
-2	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-3	heissen	heißen	VVFIN	VVFIN	_	_	_	_	0.986220
-4	die	die	ART	ART	_	_	_	_	0.999352
-5	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-6	Timonen	--	NE	NE	_	_	_	_	0.830001
-7	,	,	$,	$,	_	_	_	_	1.000000
-8	Berehovsky	--	NE	NE	_	_	_	_	0.925025
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	Hulse	--	NN	NN	_	_	_	_	0.999089
-11	oder	oder	KON	KON	_	_	_	_	1.000000
-12	Houlder	--	NE	NE	_	_	_	_	0.794028
-13	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 3211 3211 3215 3221 3227 3234 3236 3240 3248 3252 3267 3273 3275 3279 3283 3287 3296 3305 3307 3311 3315 3319 3327 3339 3343 3345 3347 3353 3356 3363
-# end_offsets = 3364 3214 3220 3226 3234 3235 3239 3247 3251 3266 3273 3274 3278 3282 3286 3295 3305 3306 3310 3314 3318 3326 3338 3342 3345 3346 3352 3355 3363 3364
-1	Der	die	ART	ART	_	_	_	_	0.999389
-2	Finne	Finne	NN	NN	_	_	_	_	1.000000
-3	Kimmo	--	NE	NE	_	_	_	_	0.988083
-4	Timonen	--	NE	NE	_	_	_	_	0.955903
-5	,	,	$,	$,	_	_	_	_	1.000000
-6	ein	eine	ART	ART	_	_	_	_	0.998519
-7	Produkt	Produkt	NN	NN	_	_	_	_	1.000000
-8	der	die	ART	ART	_	_	_	_	0.999973
-9	Talentschmiede	Talentschmiede	NN	NN	_	_	_	_	1.000000
-10	Turkus	Turku	NE	NE	_	_	_	_	1.000000
-11	,	,	$,	$,	_	_	_	_	1.000000
-12	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-13	für	für	APPR	APPR	_	_	_	_	1.000000
-14	das	die	ART	ART	_	_	_	_	0.998419
-15	Kreative	Kreative	NN	NN	_	_	_	_	0.967391
-16	zuständig	zuständig	ADJD	ADJD	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	der	die	ART	ART	_	_	_	_	0.954604
-19	Job	Job	NN	NN	_	_	_	_	1.000000
-20	der	die	ART	ART	_	_	_	_	0.999642
-21	anderen	andere	PIAT	PIAT	_	_	_	_	0.942280
-22	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-23	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-24	es	es	PPER	PPER	_	_	_	_	1.000000
-25	,	,	$,	$,	_	_	_	_	1.000000
-26	solid	solid	ADJD	ADJD	_	_	_	_	1.000000
-27	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999627
-28	spielen	spielen	VVINF	VVINF	_	_	_	_	0.999969
-29	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 3365 3365 3374 3378 3381 3385 3392 3394 3397 3402 3404 3409 3413 3423 3426 3432 3448 3449 3453 3459 3462 3467 3469 3472
-# end_offsets = 3473 3373 3377 3380 3384 3392 3393 3396 3402 3403 3408 3412 3422 3425 3431 3447 3449 3452 3458 3461 3467 3468 3472 3473
-1	Helbling	--	NE	NE	_	_	_	_	0.772217
-2	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-3	es	es	PPER	PPER	_	_	_	_	1.000000
-4	Mut	Mut	NN	NN	_	_	_	_	1.000000
-5	gemacht	machen	VVPP	VVPP	_	_	_	_	0.997958
-6	,	,	$,	$,	_	_	_	_	1.000000
-7	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999029
-8	sehen	sehen	VVINF	VVINF	_	_	_	_	0.999856
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-11	die	die	ART	ART	_	_	_	_	0.999053
-12	Differenz	Differenz	NN	NN	_	_	_	_	1.000000
-13	zu	zu	APPR	APPR	_	_	_	_	0.997238
-14	einem	eine	ART	ART	_	_	_	_	0.998935
-15	NHL-Verteidiger	--	NN	NN	_	_	_	_	0.996200
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	gar	gar	ADV	ADV	_	_	_	_	0.997380
-18	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-19	so	so	ADV	ADV	_	_	_	_	0.999995
-20	gross	groß	ADJD	ADJD	_	_	_	_	0.973339
-21	"	"	$(	$(	_	_	_	_	1.000000
-22	sei	sein	VAFIN	VAFIN	_	_	_	_	0.999999
-23	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 3474 3474 3475 3484 3490 3498 3502 3508 3526 3533 3536 3541 3547 3558 3559 3561 3568 3570
-# end_offsets = 3571 3475 3483 3489 3497 3501 3507 3525 3532 3535 3540 3546 3558 3559 3560 3567 3570 3571
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Zwischen	zwischen	APPR	APPR	_	_	_	_	1.000000
-3	einem	eine	ART	ART	_	_	_	_	0.999117
-4	Houlder	--	NN	NN	_	_	_	_	0.775410
-5	und	und	KON	KON	_	_	_	_	1.000000
-6	einem	eine	ART	ART	_	_	_	_	0.999437
-7	Milwaukee-Spieler	--	NN	NN	_	_	_	_	1.000000
-8	siehst	sehen	VVFIN	VVFIN	_	_	_	_	1.000000
-9	du	du	PPER	PPER	_	_	_	_	1.000000
-10	kaum	kaum	ADV	ADV	_	_	_	_	1.000000
-11	einen	eine	ART	ART	_	_	_	_	0.987734
-12	Unterschied	Unterschied	NN	NN	_	_	_	_	0.999995
-13	"	"	$(	$(	_	_	_	_	1.000000
-14	,	,	$,	$,	_	_	_	_	1.000000
-15	glaubt	glauben	VVFIN	VVFIN	_	_	_	_	0.999993
-16	er	er	PPER	PPER	_	_	_	_	1.000000
-17	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 3572 3572 3576 3581 3587 3617 3621 3629 3635 3639 3645 3648 3655 3664
-# end_offsets = 3665 3575 3580 3586 3616 3620 3628 3634 3638 3644 3647 3654 3664 3665
-1	Das	die	ART	ART	_	_	_	_	0.935205
-2	Plus	Plus	NN	NN	_	_	_	_	0.928094
-3	eines	eine	ART	ART	_	_	_	_	0.997835
-4	NHL-Durchschnittsverteidigers	--	NN	NN	_	_	_	_	1.000000
-5	wie	wie	KOKOM	KOKOM	_	_	_	_	0.997613
-6	Houlder	--	NN	NN	_	_	_	_	0.649910
-7	liege	liegen	VVFIN	VVFIN	_	_	_	_	1.000000
-8	vor	vor	APPR	APPR	_	_	_	_	0.950608
-9	allem	alle	PIS	PIS	_	_	_	_	0.998353
-10	in	in	APPR	APPR	_	_	_	_	1.000000
-11	dessen	die	PDAT	PDAT	_	_	_	_	0.995469
-12	Erfahrung	Erfahrung	NN	NN	_	_	_	_	1.000000
-13	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 3666 3666 3670 3684 3692 3702 3712 3720 3731 3744 3748 3753 3758 3764 3766 3770 3773 3777 3781 3784 3788 3795 3800 3803 3808 3811 3819 3824 3830 3841 3847 3849 3857 3860 3864 3878 3893
-# end_offsets = 3894 3669 3683 3691 3701 3711 3719 3729 3743 3747 3752 3757 3764 3765 3769 3772 3776 3780 3783 3787 3794 3800 3801 3807 3810 3818 3823 3829 3840 3847 3848 3856 3859 3863 3876 3893 3894
-1	Der	die	ART	ART	_	_	_	_	0.997640
-2	entscheidende	entscheidend	ADJA	ADJA	_	_	_	_	1.000000
-3	Vorteil	Vorteil	NN	NN	_	_	_	_	1.000000
-4	Helblings	--	NE	NE	_	_	_	_	0.997609
-5	gegenüber	gegenüber	APPR	APPR	_	_	_	_	0.979668
-6	anderen	andere	PIS	PIS	_	_	_	_	0.696600
-7	Schweizer	Schweizer	ADJA	ADJA	_	_	_	_	0.991533
-8	Verteidigern	Verteidiger	NN	NN	_	_	_	_	1.000000
-9	wie	wie	KOKOM	KOKOM	_	_	_	_	0.993093
-10	etwa	etwa	ADV	ADV	_	_	_	_	1.000000
-11	Mark	Mark	NN	NN	_	_	_	_	0.968055
-12	Streit	Streit	NN	NN	_	_	_	_	1.000000
-13	,	,	$,	$,	_	_	_	_	1.000000
-14	der	die	PRELS	PRELS	_	_	_	_	0.926198
-15	in	in	APPR	APPR	_	_	_	_	1.000000
-16	der	die	ART	ART	_	_	_	_	0.999980
-17	NLA	--	NN	NN	_	_	_	_	0.999952
-18	zu	zu	APPR	APPR	_	_	_	_	0.997236
-19	den	die	ART	ART	_	_	_	_	0.999968
-20	Besten	Beste	NN	NN	_	_	_	_	0.988342
-21	zählt	zählen	VVFIN	VVFIN	_	_	_	_	0.999999
-22	,	,	$,	$,	_	_	_	_	1.000000
-23	sich	sich	PRF	PRF	_	_	_	_	1.000000
-24	in	in	APPR	APPR	_	_	_	_	1.000000
-25	Übersee	Übersee	NN	NN	_	_	_	_	1.000000
-26	aber	aber	ADV	ADV	_	_	_	_	0.665670
-27	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-28	etablieren	etablieren	VVINF	VVINF	_	_	_	_	1.000000
-29	konnte	können	VMFIN	VMFIN	_	_	_	_	1.000000
-30	,	,	$,	$,	_	_	_	_	1.000000
-31	besteht	bestehen	VVFIN	VVFIN	_	_	_	_	0.999529
-32	in	in	APPR	APPR	_	_	_	_	1.000000
-33	den	die	ART	ART	_	_	_	_	0.999888
-34	körperlichen	körperlich	ADJA	ADJA	_	_	_	_	1.000000
-35	Voraussetzungen	Voraussetzung	NN	NN	_	_	_	_	1.000000
-36	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 3895 3895 3899 3904 3906 3913 3917 3920 3923 3924 3932 3940 3942 3950 3959 3964 3968 3975 3992
-# end_offsets = 3993 3898 3903 3905 3912 3916 3919 3922 3924 3931 3940 3941 3949 3958 3963 3967 3974 3992 3993
-1	Mit	mit	APPR	APPR	_	_	_	_	0.999996
-2	1,89	@card@	CARD	CARD	_	_	_	_	0.998286
-3	m	m	NN	NN	_	_	_	_	1.000000
-4	Grösse	Größe	NN	NN	_	_	_	_	1.000000
-5	und	und	KON	KON	_	_	_	_	1.000000
-6	94	@card@	CARD	CARD	_	_	_	_	0.996320
-7	kg	kg	NN	NN	_	_	_	_	1.000000
-8	(	(	$(	$(	_	_	_	_	1.000000
-9	Tendenz	Tendenz	NN	NN	_	_	_	_	1.000000
-10	steigend	steigend	ADJD	ADJD	_	_	_	_	1.000000
-11	)	)	$(	$(	_	_	_	_	1.000000
-12	verfügt	verfügen	VVFIN	VVFIN	_	_	_	_	0.948543
-13	Helbling	--	NE	NE	_	_	_	_	0.991048
-14	über	über	APPR	APPR	_	_	_	_	0.999855
-15	die	die	ART	ART	_	_	_	_	0.999760
-16	nötige	nötig	ADJA	ADJA	_	_	_	_	0.999989
-17	Wasserverdrängung	Wasserverdrängung	NN	NN	_	_	_	_	1.000000
-18	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 3994 3994 3998 4002 4014 4016 4021 4024 4028 4030 4034 4047 4055 4059 4063 4071 4075 4087 4092 4096 4100 4107 4110 4111 4120 4121
-# end_offsets = 4122 3997 4001 4014 4015 4020 4023 4028 4029 4033 4046 4054 4058 4062 4070 4074 4086 4091 4095 4099 4106 4109 4111 4120 4121 4122
-1	Das	die	PDS	PDS	_	_	_	_	0.998795
-2	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-3	entscheidend	entscheidend	ADJD	ADJD	_	_	_	_	1.000000
-4	,	,	$,	$,	_	_	_	_	1.000000
-5	wenn	wenn	KOUS	KOUS	_	_	_	_	1.000000
-6	es	es	PPER	PPER	_	_	_	_	1.000000
-7	gilt	gelten	VVFIN	VVFIN	_	_	_	_	0.999994
-8	,	,	$,	$,	_	_	_	_	1.000000
-9	die	die	ART	ART	_	_	_	_	0.879386
-10	gegnerischen	gegnerisch	ADJA	ADJA	_	_	_	_	1.000000
-11	Stürmer	Stürmer	NN	NN	_	_	_	_	1.000000
-12	vor	vor	APPR	APPR	_	_	_	_	0.992727
-13	dem	die	ART	ART	_	_	_	_	0.999803
-14	eigenen	eigen	ADJA	ADJA	_	_	_	_	1.000000
-15	Tor	Tor	NN	NN	_	_	_	_	1.000000
-16	wegzuräumen	wegräumen	VVIZU	VVIZU	_	_	_	_	1.000000
-17	oder	oder	KON	KON	_	_	_	_	1.000000
-18	sie	sie	PPER	PPER	_	_	_	_	1.000000
-19	mit	mit	APPR	APPR	_	_	_	_	0.995672
-20	Checks	Check	NN	NN	_	_	_	_	1.000000
-21	zu	zu	PTKVZ	PTKVZ	_	_	_	_	0.557737
-22	"	"	$(	$(	_	_	_	_	1.000000
-23	bestrafen	bestrafen	VVINF	VVINF	_	_	_	_	0.733306
-24	"	"	$(	$(	_	_	_	_	1.000000
-25	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 4123 4123 4126 4132 4140 4147 4150 4158 4166 4173 4181 4190 4194 4203 4212 4215 4234 4244 4248 4253 4257 4264 4269 4276 4280 4287 4294
-# end_offsets = 4295 4125 4131 4139 4146 4149 4157 4165 4172 4179 4189 4193 4202 4211 4214 4233 4243 4247 4252 4255 4263 4268 4275 4279 4286 4294 4295
-1	In	in	APPR	APPR	_	_	_	_	1.000000
-2	sechs	sechs	CARD	CARD	_	_	_	_	1.000000
-3	Monaten	Monat	NN	NN	_	_	_	_	1.000000
-4	musste	müssen	VMFIN	VMFIN	_	_	_	_	1.000000
-5	er	er	PPER	PPER	_	_	_	_	1.000000
-6	bereits	bereits	ADV	ADV	_	_	_	_	1.000000
-7	viermal	viermal	ADV	ADV	_	_	_	_	1.000000
-8	genäht	nähen	VVPP	VVPP	_	_	_	_	1.000000
-9	werden	werden	VAFIN	VAFIN	_	_	_	_	0.946916
-10	Helbling	--	NE	NE	_	_	_	_	0.992759
-11	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-12	Gefallen	Gefallen	NN	NN	_	_	_	_	1.000000
-13	gefunden	finden	VVPP	VVPP	_	_	_	_	0.975884
-14	am	an	APPRART	APPRART	_	_	_	_	0.998792
-15	nordamerikanischen	nordamerikanisch	ADJA	ADJA	_	_	_	_	1.000000
-16	Eishockey	Eishockey	NN	NN	_	_	_	_	1.000000
-17	und	und	KON	KON	_	_	_	_	1.000000
-18	sich	sich	PRF	PRF	_	_	_	_	1.000000
-19	an	an	APPR	APPR	_	_	_	_	0.999437
-20	dessen	die	PDAT	PDAT	_	_	_	_	0.979663
-21	raue	rauh	ADJA	ADJA	_	_	_	_	0.997955
-22	Sitten	Sitte	NN	NN	_	_	_	_	1.000000
-23	und	und	KON	KON	_	_	_	_	1.000000
-24	Regeln	Regel	NN	NN	_	_	_	_	1.000000
-25	gewöhnt	gewöhnen	VVPP	VVPP	_	_	_	_	0.826941
-26	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 4296 4296 4299 4306 4315 4319 4323 4332 4341 4344 4348 4361 4365 4372 4382 4385 4389 4394 4396 4405 4412 4416 4421 4424 4428 4439 4443 4450 4456 4460 4467 4471 4476 4484 4491 4497
-# end_offsets = 4498 4298 4305 4314 4318 4322 4331 4340 4343 4347 4360 4364 4371 4381 4384 4388 4394 4395 4404 4411 4415 4420 4423 4427 4438 4442 4449 4455 4459 4466 4470 4475 4483 4490 4497 4498
-1	In	in	APPR	APPR	_	_	_	_	0.999968
-2	Moskau	Moskau	NE	NE	_	_	_	_	1.000000
-3	wuchtete	wuchten	VVFIN	VVFIN	_	_	_	_	1.000000
-4	ihn	er	PPER	PPER	_	_	_	_	1.000000
-5	der	die	ART	ART	_	_	_	_	0.999411
-6	Kanadier	Kanadier	NN	NN	_	_	_	_	1.000000
-7	Morisset	--	VVFIN	VVFIN	_	_	_	_	0.898907
-8	in	in	APPR	APPR	_	_	_	_	1.000000
-9	der	die	ART	ART	_	_	_	_	0.999980
-10	Schlussphase	Schlussphase	NN	NN	_	_	_	_	1.000000
-11	des	die	ART	ART	_	_	_	_	1.000000
-12	Spiels	Spiel	NN	NN	_	_	_	_	1.000000
-13	kopfvoran	--	ADJA	ADJA	_	_	_	_	1.000000
-14	in	in	APPR	APPR	_	_	_	_	1.000000
-15	die	die	ART	ART	_	_	_	_	0.999936
-16	Bande	Bande	NN	NN	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	Helbling	--	NE	NE	_	_	_	_	0.980174
-19	erlitt	erleiden	VVFIN	VVFIN	_	_	_	_	1.000000
-20	ein	eine	ART	ART	_	_	_	_	0.998021
-21	Loch	Loch	NN	NN	_	_	_	_	1.000000
-22	in	in	APPR	APPR	_	_	_	_	1.000000
-23	der	die	ART	ART	_	_	_	_	0.999980
-24	Unterlippe	Unterlippe	NN	NN	_	_	_	_	1.000000
-25	und	und	KON	KON	_	_	_	_	1.000000
-26	musste	müssen	VMFIN	VMFIN	_	_	_	_	1.000000
-27	innen	innen	ADV	ADV	_	_	_	_	0.876723
-28	wie	wie	KOKOM	KOKOM	_	_	_	_	0.994815
-29	aussen	außenßen	ADJD	ADJD	_	_	_	_	1.000000
-30	mit	mit	APPR	APPR	_	_	_	_	0.999611
-31	drei	drei	CARD	CARD	_	_	_	_	1.000000
-32	Stichen	Stich	NN	NN	_	_	_	_	1.000000
-33	genäht	nähen	VVPP	VVPP	_	_	_	_	1.000000
-34	werden	werden	VAINF	VAINF	_	_	_	_	0.988908
-35	.	.	$.	$.	_	_	_	_	1.000000
-
-# start_offsets = 4499 4499 4502 4506 4510 4514 4522 4526 4533 4537 4540 4546 4553 4555 4560 4564 4569 4575 4582 4589 4595
-# end_offsets = 4596 4501 4505 4509 4513 4521 4525 4532 4536 4539 4545 4553 4554 4559 4563 4568 4574 4581 4588 4595 4596
-1	Es	es	PPER	PPER	_	_	_	_	0.999698
-2	war	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-3	für	für	APPR	APPR	_	_	_	_	1.000000
-4	ihn	er	PPER	PPER	_	_	_	_	1.000000
-5	bereits	bereits	ADV	ADV	_	_	_	_	1.000000
-6	das	die	ART	ART	_	_	_	_	0.978571
-7	vierte	viert	ADJA	ADJA	_	_	_	_	1.000000
-8	Mal	Mal	NN	NN	_	_	_	_	0.999880
-9	in	in	APPR	APPR	_	_	_	_	1.000000
-10	sechs	sechs	CARD	CARD	_	_	_	_	1.000000
-11	Monaten	Monat	NN	NN	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-14	ihm	er	PPER	PPER	_	_	_	_	1.000000
-15	eine	eine	ART	ART	_	_	_	_	0.999636
-16	Wunde	Wunde	NN	NN	_	_	_	_	0.983708
-17	genäht	nähen	VVPP	VVPP	_	_	_	_	1.000000
-18	werden	werden	VAINF	VAINF	_	_	_	_	0.999998
-19	musste	müssen	VMFIN	VMFIN	_	_	_	_	1.000000
-20	.	.	$.	$.	_	_	_	_	1.000000
-
diff --git a/DeReKo/tutorial_examples/mini_test_raw.conllu.fixed b/DeReKo/tutorial_examples/mini_test_raw.conllu.fixed
deleted file mode 100644
index 18a1501..0000000
--- a/DeReKo/tutorial_examples/mini_test_raw.conllu.fixed
+++ /dev/null
@@ -1,1000 +0,0 @@
-###C: foundry = tree_tagger
-###C: filename = TAS01/JAN/00001/tree_tagger/morpho.xml  
-###C: text_id = TAS01_JAN.00001
-###C: start_offsets = 0 0 1 15 17 22 29 35 43 50 52 57 61 67 70 73 83 84 98 100 104 113 118 126 130 134 149 154 158 172 179 182 191 198 209 216 228
-###C: end_offsets = 229 1 15 16 21 28 34 42 49 51 56 60 66 69 72 82 84 98 99 103 112 116 125 129 133 148 153 157 171 178 181 189 197 208 215 228 229
-1	'	"	$(	$(	_	_	_	_	1.000000
-2	Highspeed-Netz	--	NN	NN	_	_	_	_	1.000000
-3	'	"	$(	$(	_	_	_	_	1.000000
-4	geht	gehen	VVFIN	VVFIN	_	_	_	_	0.999851
-5	wieder	wieder	ADV	ADV	_	_	_	_	0.999653
-6	Panne	Panne	NN	NN	_	_	_	_	1.000000
-7	behoben	beheben	VVFIN	VVFIN	_	_	_	_	0.723081
-8	ZÜRICH	Zürich	NE	NE	_	_	_	_	1.000000
-9	-	-	$(	$(	_	_	_	_	1.000000
-10	Nach	nach	APPR	APPR	_	_	_	_	0.993116
-11	der	die	ART	ART	_	_	_	_	0.999979
-12	Panne	Panne	NN	NN	_	_	_	_	1.000000
-13	im	in	APPRART	APPRART	_	_	_	_	1.000000
-14	so	so	ADV	ADV	_	_	_	_	0.999937
-15	genannten	genannt	ADJA	ADJA	_	_	_	_	1.000000
-16	'	"	$(	$(	_	_	_	_	1.000000
-17	Highspeed-Netz	--	NN	NN	_	_	_	_	1.000000
-18	'	"	$(	$(	_	_	_	_	1.000000
-19	der	die	ART	ART	_	_	_	_	0.966318
-20	Cablecom	--	NE	NE	_	_	_	_	0.984954
-21	vom	von	APPRART	APPRART	_	_	_	_	1.000000
-22	Freitag	Freitag	NN	NN	_	_	_	_	0.990459
-23	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-24	der	die	ART	ART	_	_	_	_	0.999804
-25	Internetzugang	Internetzugang	NN	NN	_	_	_	_	1.000000
-26	über	über	APPR	APPR	_	_	_	_	0.999907
-27	das	die	ART	ART	_	_	_	_	0.993720
-28	entsprechende	entsprechend	ADJA	ADJA	_	_	_	_	1.000000
-29	System	System	NN	NN	_	_	_	_	1.000000
-30	am	an	APPRART	APPRART	_	_	_	_	0.999838
-31	Samstag	Samstag	NN	NN	_	_	_	_	1.000000
-32	wieder	wieder	ADV	ADV	_	_	_	_	0.999927
-33	weitgehend	weitgehend	ADJD	ADJD	_	_	_	_	1.000000
-34	normal	normal	ADJD	ADJD	_	_	_	_	1.000000
-35	funktioniert	funktionieren	VVPP	VVPP	_	_	_	_	0.551329
-36	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 230 230 239 245 248 250 253 261 266 270 282 287 290 294 304 308 315 319 323 335 347 354 360
-###C: end_offsets = 361 238 244 248 249 252 260 265 269 281 286 289 293 303 307 314 318 322 334 346 353 360 361
-1	Cablecom	--	NE	NE	_	_	_	_	0.998928
-2	prüft	prüfen	VVFIN	VVFIN	_	_	_	_	1.000000
-3	nun	nun	ADV	ADV	_	_	_	_	0.999989
-4	,	,	$,	$,	_	_	_	_	1.000000
-5	in	in	APPR	APPR	_	_	_	_	1.000000
-6	welcher	welche	PIS	PIS	_	_	_	_	0.978436
-7	Form	Form	NN	NN	_	_	_	_	0.999692
-8	die	die	ART	ART	_	_	_	_	0.999693
-9	betroffenen	betroffen	ADJA	ADJA	_	_	_	_	1.000000
-10	rund	rund	ADV	ADV	_	_	_	_	0.999694
-11	12	12	CARD	CARD	_	_	_	_	1.000000
-12	000	@card@	CARD	CARD	_	_	_	_	0.994095
-13	Kundinnen	Kundin	NN	NN	_	_	_	_	1.000000
-14	und	und	KON	KON	_	_	_	_	1.000000
-15	Kunden	Kunde	NN	NN	_	_	_	_	0.989826
-16	für	für	APPR	APPR	_	_	_	_	1.000000
-17	den	die	ART	ART	_	_	_	_	0.999974
-18	Teilausfall	Teilausfall	NN	NN	_	_	_	_	1.000000
-19	entschädigt	entschädigen	VVPP	VVPP	_	_	_	_	0.999998
-20	werden	werden	VAINF	VAINF	_	_	_	_	0.999922
-21	können	können	VMFIN	VMFIN	_	_	_	_	0.997080
-22	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 362 362 366 374 388 402 406 409 413
-###C: end_offsets = 414 365 373 387 401 405 408 413 414
-1	Die	die	ART	ART	_	_	_	_	0.998436
-2	Prüfung	Prüfung	NN	NN	_	_	_	_	1.000000
-3	verschiedener	verschieden	ADJA	ADJA	_	_	_	_	0.991547
-4	Möglichkeiten	Möglichkeit	NN	NN	_	_	_	_	1.000000
-5	sei	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-6	im	in	APPRART	APPRART	_	_	_	_	1.000000
-7	Gang	Gang	NN	NN	_	_	_	_	1.000000
-8	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: filename = TAS01/JAN/00002/tree_tagger/morpho.xml  
-###C: text_id = TAS01_JAN.00002
-###C: start_offsets = 0 0 5 14 20 24 28 36 43 47 58 76 83 87 90 97 109 116 118 123 132 139 145 153 159 166 170 178 180 184 191 196 203 217
-###C: end_offsets = 218 4 13 19 23 27 35 42 46 57 75 82 86 89 96 108 115 117 122 131 138 144 152 158 165 169 178 179 182 190 195 202 217 218
-1	Timo	Timo	NE	NE	_	_	_	_	1.000000
-2	Helbling	--	NE	NE	_	_	_	_	0.998979
-3	kehrt	kehrt	PTKVZ	PTKVZ	_	_	_	_	0.797658
-4	von	von	APPR	APPR	_	_	_	_	0.999850
-5	der	die	ART	ART	_	_	_	_	0.999969
-6	U-20-WM	--	NN	NN	_	_	_	_	0.826878
-7	zurück	zurück	PTKVZ	PTKVZ	_	_	_	_	0.896310
-8	ins	in	APPRART	APPRART	_	_	_	_	1.000000
-9	kanadische	kanadisch	ADJA	ADJA	_	_	_	_	1.000000
-10	Junioreneishockey	Junioreneishockey	NN	NN	_	_	_	_	1.000000
-11	Prügel	Prügel	NN	NN	_	_	_	_	1.000000
-12	für	für	APPR	APPR	_	_	_	_	1.000000
-13	90	90	CARD	CARD	_	_	_	_	1.000000
-14	Dollar	Dollar	NN	NN	_	_	_	_	1.000000
-15	Taschengeld	Taschengeld	NN	NN	_	_	_	_	1.000000
-16	MOSKAU	Moskau	NE	NE	_	_	_	_	1.000000
-17	-	-	$(	$(	_	_	_	_	1.000000
-18	Timo	Timo	NE	NE	_	_	_	_	1.000000
-19	Helbling	--	NE	NE	_	_	_	_	0.998972
-20	steigt	steigen	VVFIN	VVFIN	_	_	_	_	1.000000
-21	heute	heute	ADV	ADV	_	_	_	_	0.999998
-22	Sonntag	Sonntag	NN	NN	_	_	_	_	0.847388
-23	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-24	ungern	ungern	ADV	ADV	_	_	_	_	1.000000
-25	ins	in	APPRART	APPRART	_	_	_	_	1.000000
-26	Flugzeug	Flugzeug	NN	NN	_	_	_	_	1.000000
-27	,	,	$,	$,	_	_	_	_	1.000000
-28	um	um	KOUI	KOUI	_	_	_	_	0.975073
-29	wieder	wieder	ADV	ADV	_	_	_	_	0.999094
-30	nach	nach	APPR	APPR	_	_	_	_	0.996404
-31	Kanada	Kanada	NE	NE	_	_	_	_	1.000000
-32	zurückzukehren	zurückkehren	VVIZU	VVIZU	_	_	_	_	1.000000
-33	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 219 219 223 235 238 245 249 253 257 262 269 280 282 287 292 297 304 307 314 318 321 327 339 346 348 349 356 363 366 374 379 382 390 391
-###C: end_offsets = 392 222 234 237 244 248 252 256 261 268 280 281 286 291 296 303 306 313 317 320 326 338 346 347 349 355 362 365 373 378 381 390 391 392
-1	Die	die	ART	ART	_	_	_	_	0.994760
-2	Junioren-WM	Junioren-WM	NE	NE	_	_	_	_	1.000000
-3	in	in	APPR	APPR	_	_	_	_	1.000000
-4	Moskau	Moskau	NE	NE	_	_	_	_	1.000000
-5	war	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-6	für	für	APPR	APPR	_	_	_	_	1.000000
-7	ihn	er	PPER	PPER	_	_	_	_	1.000000
-8	eine	eine	ART	ART	_	_	_	_	0.999624
-9	schöne	schön	ADJA	ADJA	_	_	_	_	1.000000
-10	Abwechslung	Abwechslung	NN	NN	_	_	_	_	1.000000
-11	,	,	$,	$,	_	_	_	_	1.000000
-12	doch	doch	KON	KON	_	_	_	_	0.512407
-13	nach	nach	APPR	APPR	_	_	_	_	0.976726
-14	drei	drei	CARD	CARD	_	_	_	_	1.000000
-15	Wochen	Woche	NN	NN	_	_	_	_	1.000000
-16	in	in	APPR	APPR	_	_	_	_	1.000000
-17	Hotels	Hotel	NN	NN	_	_	_	_	1.000000
-18	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-19	er	er	PPER	PPER	_	_	_	_	1.000000
-20	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-21	unglücklich	unglücklich	ADJD	ADJD	_	_	_	_	1.000000
-22	darüber	darüber	PAV	PAV	_	_	_	_	0.995774
-23	,	,	$,	$,	_	_	_	_	1.000000
-24	"	"	$(	$(	_	_	_	_	1.000000
-25	wieder	wieder	ADV	ADV	_	_	_	_	0.999997
-26	einmal	einmal	ADV	ADV	_	_	_	_	1.000000
-27	im	in	APPRART	APPRART	_	_	_	_	1.000000
-28	eigenen	eigen	ADJA	ADJA	_	_	_	_	1.000000
-29	Bett	Bett	NN	NN	_	_	_	_	1.000000
-30	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999628
-31	schlafen	schlafen	VVINF	VVINF	_	_	_	_	0.999981
-32	"	"	$(	$(	_	_	_	_	1.000000
-33	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 393 393 397 404 409 413 417 421 425 430 434 441 452 454 458 462 465 477 485 497 500
-###C: end_offsets = 501 396 403 408 412 416 420 424 429 433 440 452 453 457 461 464 476 484 496 500 501
-1	Das	die	ART	ART	_	_	_	_	0.852618
-2	eigene	eigen	ADJA	ADJA	_	_	_	_	1.000000
-3	Bett	Bett	NN	NN	_	_	_	_	1.000000
-4	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-5	für	für	APPR	APPR	_	_	_	_	1.000000
-6	ihn	er	PPER	PPER	_	_	_	_	1.000000
-7	das	die	ART	ART	_	_	_	_	0.984922
-8	Bett	Bett	NN	NN	_	_	_	_	1.000000
-9	bei	bei	APPR	APPR	_	_	_	_	0.999898
-10	seiner	sein	PPOSAT	PPOSAT	_	_	_	_	0.999998
-11	Gastfamilie	Gastfamilie	NN	NN	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	die	die	PRELS	PRELS	_	_	_	_	0.999621
-14	ihn	er	PPER	PPER	_	_	_	_	1.000000
-15	im	in	APPRART	APPRART	_	_	_	_	1.000000
-16	kanadischen	kanadisch	ADJA	ADJA	_	_	_	_	1.000000
-17	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-18	aufgenommen	aufnehmen	VVPP	VVPP	_	_	_	_	0.995475
-19	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-20	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 502 502 506 514 517 521 526 534 546 559 561 565 569 575 578 592 602 608 610 615 625 630 634 647 660
-###C: end_offsets = 661 505 513 516 520 525 533 545 559 560 564 568 574 577 591 601 608 609 614 624 629 633 646 660 661
-1	Die	die	ART	ART	_	_	_	_	0.998436
-2	Spieler	Spieler	NN	NN	_	_	_	_	1.000000
-3	in	in	APPR	APPR	_	_	_	_	1.000000
-4	den	die	ART	ART	_	_	_	_	0.999466
-5	drei	drei	CARD	CARD	_	_	_	_	1.000000
-6	grossen	groß	ADJA	ADJA	_	_	_	_	1.000000
-7	kanadischen	kanadisch	ADJA	ADJA	_	_	_	_	1.000000
-8	Juniorenligen	Juniorenliga	NN	NN	_	_	_	_	1.000000
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	die	die	PRELS	PRELS	_	_	_	_	0.992435
-11	den	die	ART	ART	_	_	_	_	0.999732
-12	Klubs	Klub	NN	NN	_	_	_	_	1.000000
-13	im	in	APPRART	APPRART	_	_	_	_	1.000000
-14	Juniorendraft	--	NN	NN	_	_	_	_	0.998655
-15	zugeteilt	zuteilen	VVPP	VVPP	_	_	_	_	1.000000
-16	werden	werden	VAINF	VAINF	_	_	_	_	0.973945
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	sind	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-19	praktisch	praktisch	ADJD	ADJD	_	_	_	_	1.000000
-20	alle	alle	PIS	PIS	_	_	_	_	0.861349
-21	bei	bei	APPR	APPR	_	_	_	_	0.997633
-22	Gastfamilien	Gastfamilie	NN	NN	_	_	_	_	1.000000
-23	untergebracht	unterbringen	VVPP	VVPP	_	_	_	_	1.000000
-24	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 662 662 663 668 672 675 680 682 688 693 702 713 717 721 727 729 730 735 740 745 754 759 765
-###C: end_offsets = 766 663 667 671 674 680 681 687 692 701 712 716 720 727 728 730 734 739 744 753 758 765 766
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Fast	fast	ADV	ADV	_	_	_	_	1.000000
-3	wie	wie	KOKOM	KOKOM	_	_	_	_	0.965767
-4	zu	zu	APPR	APPR	_	_	_	_	0.997617
-5	Hause	Haus	NN	NN	_	_	_	_	1.000000
-6	"	"	$(	$(	_	_	_	_	1.000000
-7	fühlt	fühlen	VVFIN	VVFIN	_	_	_	_	0.998961
-8	sich	sich	PRF	PRF	_	_	_	_	1.000000
-9	Helbling	--	NE	NE	_	_	_	_	0.993286
-10	inzwischen	inzwischen	ADV	ADV	_	_	_	_	1.000000
-11	bei	bei	APPR	APPR	_	_	_	_	0.999705
-12	der	die	ART	ART	_	_	_	_	0.989485
-13	seinen	sein	PPOSAT	PPOSAT	_	_	_	_	0.997144
-14	,	,	$,	$,	_	_	_	_	1.000000
-15	"	"	$(	$(	_	_	_	_	1.000000
-16	alle	alle	PIAT	PIAT	_	_	_	_	0.758817
-17	sind	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-18	dort	dort	ADV	ADV	_	_	_	_	1.000000
-19	verrückt	verrückt	ADJD	ADJD	_	_	_	_	0.661730
-20	nach	nach	APPR	APPR	_	_	_	_	0.994375
-21	Hockey	Hockey	NN	NN	_	_	_	_	1.000000
-22	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 766 766 768 772 783 793 798 802 808 821 829 833 840 844 849 856 861 863 865 869 874 878 882 888 893 902
-###C: end_offsets = 903 767 771 782 792 797 801 807 820 828 832 839 843 848 855 860 863 864 868 873 877 881 887 892 902 903
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Der	die	ART	ART	_	_	_	_	0.993481
-3	19-jährige	19-jährig	ADJA	ADJA	_	_	_	_	1.000000
-4	Schweizer	Schweizer	NN	NN	_	_	_	_	0.991990
-5	lebt	leben	VVFIN	VVFIN	_	_	_	_	0.999998
-6	bei	bei	APPR	APPR	_	_	_	_	0.999863
-7	einer	eine	ART	ART	_	_	_	_	0.996882
-8	dreiköpfigen	dreiköpfig	ADJA	ADJA	_	_	_	_	1.000000
-9	Familie	Familie	NN	NN	_	_	_	_	1.000000
-10	mit	mit	APPR	APPR	_	_	_	_	0.999017
-11	Mutter	Mutter	NN	NN	_	_	_	_	1.000000
-12	und	und	KON	KON	_	_	_	_	1.000000
-13	zwei	zwei	CARD	CARD	_	_	_	_	1.000000
-14	Söhnen	Sohn	NN	NN	_	_	_	_	1.000000
-15	über	über	APPR	APPR	_	_	_	_	0.999948
-16	20	20	CARD	CARD	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	der	die	ART	ART	_	_	_	_	0.951657
-19	Mann	Mann	NN	NN	_	_	_	_	0.989207
-20	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-21	vor	vor	APPR	APPR	_	_	_	_	0.977751
-22	einem	eine	ART	ART	_	_	_	_	0.998913
-23	Jahr	Jahr	NN	NN	_	_	_	_	1.000000
-24	gestorben	sterben	VVPP	VVPP	_	_	_	_	1.000000
-25	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 904 904 905 916 922 926 931 939 941 944 951 957 961 968 977 980 986 987 989 998 1003 1011
-###C: end_offsets = 1012 905 915 921 925 930 939 940 943 950 956 960 967 976 979 986 987 988 997 1002 1011 1012
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Vielleicht	vielleicht	ADV	ADV	_	_	_	_	1.000000
-3	haben	haben	VAFIN	VAFIN	_	_	_	_	0.999887
-4	sie	sie	PPER	PPER	_	_	_	_	1.000000
-5	mich	ich	PRF	PRF	_	_	_	_	0.940417
-6	genommen	nehmen	VVPP	VVPP	_	_	_	_	0.979296
-7	,	,	$,	$,	_	_	_	_	1.000000
-8	um	um	KOUI	KOUI	_	_	_	_	0.975054
-9	wieder	wieder	ADV	ADV	_	_	_	_	0.999875
-10	etwas	etwas	ADV	ADV	_	_	_	_	0.788603
-11	auf	auf	APPR	APPR	_	_	_	_	0.998236
-12	andere	andere	PIAT	PIAT	_	_	_	_	0.887600
-13	Gedanken	Gedanke	NN	NN	_	_	_	_	1.000000
-14	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999597
-15	kommen	kommen	VVINF	VVINF	_	_	_	_	0.999949
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	vermutet	vermuten	VVFIN	VVFIN	_	_	_	_	0.984181
-19	Timo	Timo	NE	NE	_	_	_	_	1.000000
-20	Helbling	--	NE	NE	_	_	_	_	0.999202
-21	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1013 1013 1020 1026 1029 1040 1045 1047 1051 1059 1064 1075 1078 1081
-###C: end_offsets = 1082 1019 1025 1028 1039 1045 1046 1050 1058 1063 1074 1077 1081 1082
-1	Klagen	klagen	VVINF	VVINF	_	_	_	_	0.809488
-2	könne	können	VMFIN	VMFIN	_	_	_	_	1.000000
-3	er	er	PPER	PPER	_	_	_	_	1.000000
-4	jedenfalls	jedenfalls	ADV	ADV	_	_	_	_	1.000000
-5	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-6	,	,	$,	$,	_	_	_	_	1.000000
-7	man	man	PIS	PIS	_	_	_	_	1.000000
-8	kümmere	kümmern	VVFIN	VVFIN	_	_	_	_	1.000000
-9	sich	sich	PRF	PRF	_	_	_	_	1.000000
-10	vorzüglich	vorzüglich	ADJD	ADJD	_	_	_	_	1.000000
-11	um	um	APPR	APPR	_	_	_	_	0.995016
-12	ihm	er	PPER	PPER	_	_	_	_	1.000000
-13	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1083 1083 1087 1099 1105 1116 1122 1132 1138 1143 1148 1152 1158 1165 1170 1176 1185 1190 1196 1199 1210
-###C: end_offsets = 1211 1086 1098 1104 1115 1121 1131 1137 1141 1147 1151 1157 1164 1169 1175 1184 1189 1195 1198 1210 1211
-1	Das	die	ART	ART	_	_	_	_	0.962601
-2	Versprechen	Versprechen	NN	NN	_	_	_	_	1.000000
-3	eines	eine	ART	ART	_	_	_	_	0.998544
-4	Testspiels	Testspiel	NN	NN	_	_	_	_	0.662087
-5	hielt	halten	VVFIN	VVFIN	_	_	_	_	1.000000
-6	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-7	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-8	ein	ein	PTKVZ	PTKVZ	_	_	_	_	0.602706
-9	Seit	seit	APPR	APPR	_	_	_	_	0.984396
-10	gut	gut	ADJD	ADJD	_	_	_	_	0.999984
-11	einem	eine	ART	ART	_	_	_	_	0.997705
-12	halben	halb	ADJA	ADJA	_	_	_	_	1.000000
-13	Jahr	Jahr	NN	NN	_	_	_	_	1.000000
-14	sucht	suchen	VVFIN	VVFIN	_	_	_	_	1.000000
-15	Helbling	--	NE	NE	_	_	_	_	0.995612
-16	sein	sein	PPOSAT	PPOSAT	_	_	_	_	0.995607
-17	Glück	Glück	NN	NN	_	_	_	_	1.000000
-18	in	in	APPR	APPR	_	_	_	_	1.000000
-19	Nordamerika	Nordamerika	NE	NE	_	_	_	_	1.000000
-20	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1212 1212 1215 1227 1234 1249 1252 1258 1276 1280 1284 1294 1303 1305 1309 1313 1322 1326 1335 1345 1346 1349 1351 1355 1360 1363 1371 1385
-###C: end_offsets = 1386 1214 1226 1233 1248 1251 1257 1275 1279 1283 1293 1303 1304 1308 1312 1321 1325 1334 1344 1346 1349 1350 1354 1359 1362 1370 1385 1386
-1	Im	in	APPRART	APPRART	_	_	_	_	1.000000
-2	vergangenen	vergangen	ADJA	ADJA	_	_	_	_	1.000000
-3	Sommer	Sommer	NN	NN	_	_	_	_	0.956930
-4	unterzeichnete	unterzeichnen	VVFIN	VVFIN	_	_	_	_	0.999855
-5	er	er	PPER	PPER	_	_	_	_	1.000000
-6	einen	eine	ART	ART	_	_	_	_	0.973616
-7	Dreijahresvertrag	Dreijahresvertrag	NN	NN	_	_	_	_	1.000000
-8	bei	bei	APPR	APPR	_	_	_	_	0.999816
-9	den	die	ART	ART	_	_	_	_	0.999938
-10	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-11	Predators	--	NN	NN	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	die	die	PRELS	PRELS	_	_	_	_	0.999621
-14	ihn	er	PPER	PPER	_	_	_	_	1.000000
-15	zunächst	zunächst	ADV	ADV	_	_	_	_	0.999632
-16	ans	ans	APPRART	APPRART	_	_	_	_	1.000000
-17	Farmteam	Farmteam	NN	NN	_	_	_	_	1.000000
-18	Milwaukee	Milwaukee	NE	NE	_	_	_	_	1.000000
-19	(	(	$(	$(	_	_	_	_	1.000000
-20	IHL	--	NE	NE	_	_	_	_	0.976399
-21	)	)	$(	$(	_	_	_	_	1.000000
-22	und	und	KON	KON	_	_	_	_	1.000000
-23	dann	dann	ADV	ADV	_	_	_	_	1.000000
-24	zu	zu	APPR	APPR	_	_	_	_	0.996294
-25	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-26	weiterreichten	weiterreichen	VVFIN	VVFIN	_	_	_	_	0.999075
-27	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1387 1387 1396 1405 1412 1416 1417 1428 1430 1434 1444 1448 1453 1457 1458 1466 1468 1481 1483 1486 1489 1493 1497 1507 1510 1519 1527 1533
-###C: end_offsets = 1534 1395 1404 1411 1415 1417 1428 1429 1433 1443 1447 1452 1456 1458 1466 1467 1481 1482 1485 1488 1492 1496 1506 1509 1518 1526 1533 1534
-1	Helbling	--	NE	NE	_	_	_	_	0.838584
-2	besuchte	besuchen	VVFIN	VVFIN	_	_	_	_	0.998789
-3	zuerst	zuerst	ADV	ADV	_	_	_	_	1.000000
-4	das	die	ART	ART	_	_	_	_	0.899883
-5	"	"	$(	$(	_	_	_	_	1.000000
-6	Rookie-Camp	--	NN	NN	_	_	_	_	0.998815
-7	"	"	$(	$(	_	_	_	_	1.000000
-8	der	die	ART	ART	_	_	_	_	0.996070
-9	Predators	--	NN	NN	_	_	_	_	1.000000
-10	und	und	KON	KON	_	_	_	_	1.000000
-11	dann	dann	ADV	ADV	_	_	_	_	1.000000
-12	das	die	ART	ART	_	_	_	_	0.899883
-13	"	"	$(	$(	_	_	_	_	1.000000
-14	richtige	richtig	ADJA	ADJA	_	_	_	_	1.000000
-15	"	"	$(	$(	_	_	_	_	1.000000
-16	Trainingscamp	Trainingscamp	NN	NN	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	wo	wo	PWAV	PWAV	_	_	_	_	1.000000
-19	er	er	PPER	PPER	_	_	_	_	1.000000
-20	von	von	APPR	APPR	_	_	_	_	0.999959
-21	den	die	ART	ART	_	_	_	_	0.999974
-22	Neulingen	Neuling	NN	NN	_	_	_	_	1.000000
-23	am	am	PTKA	PTKA	_	_	_	_	0.501702
-24	längsten	lang	ADJD	ADJD	_	_	_	_	0.601827
-25	bleiben	bleiben	VVINF	VVINF	_	_	_	_	0.999999
-26	durfte	dürfen	VMFIN	VMFIN	_	_	_	_	1.000000
-27	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1535 1535 1541 1547 1553 1563 1567 1573 1577 1596 1600 1609 1611 1616 1621 1626 1632 1636 1643 1663 1670 1673 1675 1684 1687 1691 1698 1700 1703 1717 1729 1732 1738
-###C: end_offsets = 1739 1540 1546 1552 1562 1566 1572 1576 1595 1599 1609 1610 1615 1620 1625 1631 1635 1642 1662 1669 1673 1674 1683 1686 1690 1698 1699 1702 1716 1728 1731 1738 1739
-1	Coach	Coach	NN	NN	_	_	_	_	0.936863
-2	Barry	Barry	NE	NE	_	_	_	_	1.000000
-3	Trotz	Trotz	NN	NN	_	_	_	_	0.999457
-4	versprach	versprechen	VVFIN	VVFIN	_	_	_	_	1.000000
-5	ihm	er	PPER	PPER	_	_	_	_	1.000000
-6	sogar	sogar	ADV	ADV	_	_	_	_	1.000000
-7	ein	eine	ART	ART	_	_	_	_	0.993896
-8	Vorbereitungsspiel	Vorbereitungsspiel	NN	NN	_	_	_	_	1.000000
-9	mit	mit	APPR	APPR	_	_	_	_	0.999656
-10	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-11	,	,	$,	$,	_	_	_	_	1.000000
-12	doch	doch	KON	KON	_	_	_	_	0.875020
-13	weil	weil	KOUS	KOUS	_	_	_	_	0.998620
-14	sich	sich	PRF	PRF	_	_	_	_	1.000000
-15	Trotz	trotz	APPR	APPR	_	_	_	_	0.960345
-16	mit	mit	APPR	APPR	_	_	_	_	0.999954
-17	seinen	sein	PPOSAT	PPOSAT	_	_	_	_	1.000000
-18	Personalentscheiden	Personalentscheid	NN	NN	_	_	_	_	1.000000
-19	schwer	schwer	ADJD	ADJD	_	_	_	_	0.986718
-20	tat	tun	VVFIN	VVFIN	_	_	_	_	1.000000
-21	,	,	$,	$,	_	_	_	_	1.000000
-22	brauchte	brauchen	VVFIN	VVFIN	_	_	_	_	1.000000
-23	er	er	PPER	PPER	_	_	_	_	1.000000
-24	die	die	ART	ART	_	_	_	_	0.998283
-25	Partien	Partie	NN	NN	_	_	_	_	1.000000
-26	,	,	$,	$,	_	_	_	_	1.000000
-27	um	um	KOUI	KOUI	_	_	_	_	0.896269
-28	routiniertere	routiniert	ADJA	ADJA	_	_	_	_	1.000000
-29	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-30	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999630
-31	testen	testen	VVINF	VVINF	_	_	_	_	0.999983
-32	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1740 1740 1749 1758 1763 1768 1788 1792 1801 1803 1806 1812 1815 1819 1826 1831 1833 1838 1841 1845 1846 1851 1854 1856 1860
-###C: end_offsets = 1861 1748 1757 1762 1767 1787 1791 1801 1802 1805 1811 1814 1818 1825 1831 1832 1837 1840 1844 1846 1850 1854 1855 1860 1861
-1	Helbling	--	NE	NE	_	_	_	_	0.838757
-2	bestritt	bestreiten	VVFIN	VVFIN	_	_	_	_	1.000000
-3	dann	dann	ADV	ADV	_	_	_	_	1.000000
-4	zwei	zwei	CARD	CARD	_	_	_	_	1.000000
-5	Freundschaftsspiele	Freundschaftsspiel	NN	NN	_	_	_	_	1.000000
-6	mit	mit	APPR	APPR	_	_	_	_	0.999656
-7	Milwaukee	Milwaukee	NE	NE	_	_	_	_	1.000000
-8	,	,	$,	$,	_	_	_	_	1.000000
-9	in	in	APPR	APPR	_	_	_	_	1.000000
-10	denen	die	PRELS	PRELS	_	_	_	_	0.747613
-11	er	er	PPER	PPER	_	_	_	_	1.000000
-12	das	die	ART	ART	_	_	_	_	0.984922
-13	Gefühl	Gefühl	NN	NN	_	_	_	_	1.000000
-14	hatte	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-15	,	,	$,	$,	_	_	_	_	1.000000
-16	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-17	es	es	PPER	PPER	_	_	_	_	1.000000
-18	ihm	er	PPER	PPER	_	_	_	_	1.000000
-19	"	"	$(	$(	_	_	_	_	1.000000
-20	sehr	sehr	ADV	ADV	_	_	_	_	1.000000
-21	gut	gut	ADJD	ADJD	_	_	_	_	0.999439
-22	"	"	$(	$(	_	_	_	_	1.000000
-23	lief	laufen	VVFIN	VVFIN	_	_	_	_	1.000000
-24	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1862 1862 1873 1882 1886 1890 1897 1902 1907 1913 1920 1923 1930 1932 1935 1947 1950 1957
-###C: end_offsets = 1958 1872 1881 1885 1889 1896 1901 1906 1912 1919 1922 1930 1931 1934 1946 1949 1957 1958
-1	Gleichwohl	gleichwohl	ADV	ADV	_	_	_	_	0.630452
-2	schickte	schicken	VVFIN	VVFIN	_	_	_	_	1.000000
-3	man	man	PIS	PIS	_	_	_	_	1.000000
-4	ihn	er	PPER	PPER	_	_	_	_	1.000000
-5	danach	danach	PAV	PAV	_	_	_	_	1.000000
-6	noch	noch	ADV	ADV	_	_	_	_	0.980091
-7	eine	eine	ART	ART	_	_	_	_	0.998731
-8	Stufe	Stufe	NN	NN	_	_	_	_	1.000000
-9	tiefer	tief	ADJD	ADJD	_	_	_	_	0.998813
-10	zu	zu	APPR	APPR	_	_	_	_	0.995289
-11	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	um	um	KOUI	KOUI	_	_	_	_	0.678412
-14	Spielpraxis	Spielpraxen	NN	NN	_	_	_	_	1.000000
-15	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999640
-16	sammeln	sammeln	VVINF	VVINF	_	_	_	_	0.999993
-17	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 1959 1959 1963 1973 1978 1981 1991 1995 2002 2014 2021 2023 2029 2033 2043
-###C: end_offsets = 2044 1962 1972 1977 1980 1990 1994 2001 2013 2021 2022 2028 2032 2043 2044
-1	Bei	bei	APPR	APPR	_	_	_	_	0.999996
-2	Milwaukee	Milwaukee	NE	NE	_	_	_	_	1.000000
-3	wäre	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-4	er	er	PPER	PPER	_	_	_	_	1.000000
-5	höchstens	höchstens	ADV	ADV	_	_	_	_	1.000000
-6	der	die	ART	ART	_	_	_	_	0.999767
-7	fünfte	fünft	ADJA	ADJA	_	_	_	_	1.000000
-8	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-9	gewesen	sein	VAPP	VAPP	_	_	_	_	1.000000
-10	,	,	$,	$,	_	_	_	_	1.000000
-11	wurde	werden	VAFIN	VAFIN	_	_	_	_	1.000000
-12	ihm	er	PPER	PPER	_	_	_	_	1.000000
-13	mitgeteilt	mitteilen	VVPP	VVPP	_	_	_	_	0.982983
-14	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2045 2045 2048 2056 2064 2068 2073 2080 2084 2090 2094 2100 2107 2110 2118 2126 2135 2139 2146 2148 2152 2155 2160 2166 2173 2181 2185 2191 2201 2207 2209 2213 2218 2224 2228
-###C: end_offsets = 2229 2047 2055 2063 2067 2072 2079 2083 2089 2093 2099 2105 2109 2117 2125 2134 2138 2146 2147 2151 2154 2159 2165 2172 2179 2184 2190 2200 2206 2208 2212 2217 2223 2228 2229
-1	30	30	CARD	CARD	_	_	_	_	1.000000
-2	Minuten	Minute	NN	NN	_	_	_	_	1.000000
-3	Eiszeit	Eiszeit	NN	NN	_	_	_	_	1.000000
-4	und	und	KON	KON	_	_	_	_	1.000000
-5	drei	drei	CARD	CARD	_	_	_	_	1.000000
-6	Spiele	Spiel	NN	NN	_	_	_	_	1.000000
-7	pro	pro	APPR	APPR	_	_	_	_	1.000000
-8	Woche	Woche	NN	NN	_	_	_	_	1.000000
-9	als	als	KOKOM	KOKOM	_	_	_	_	0.992059
-10	beste	gut	ADJA	ADJA	_	_	_	_	1.000000
-11	Lehre	Lehre	NN	NN	_	_	_	_	1.000000
-12	In	in	APPR	APPR	_	_	_	_	0.999872
-13	Windsor	Windsor	NE	NE	_	_	_	_	1.000000
-14	bekommt	bekommen	VVFIN	VVFIN	_	_	_	_	1.000000
-15	Helbling	--	NE	NE	_	_	_	_	0.988560
-16	die	die	ART	ART	_	_	_	_	0.999996
-17	Eiszeit	Eiszeit	NN	NN	_	_	_	_	1.000000
-18	,	,	$,	$,	_	_	_	_	1.000000
-19	die	die	PRELS	PRELS	_	_	_	_	0.999621
-20	er	er	PPER	PPER	_	_	_	_	1.000000
-21	sich	sich	PRF	PRF	_	_	_	_	1.000000
-22	schon	schon	ADV	ADV	_	_	_	_	0.999989
-23	letzte	letzt	ADJA	ADJA	_	_	_	_	1.000000
-24	Saison	Saison	NN	NN	_	_	_	_	1.000000
-25	bei	bei	APPR	APPR	_	_	_	_	0.999811
-26	Davos	Davos	NE	NE	_	_	_	_	1.000000
-27	gewünscht	wünschen	VVPP	VVPP	_	_	_	_	1.000000
-28	hätte	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-29	-	-	$(	$(	_	_	_	_	1.000000
-30	und	und	KON	KON	_	_	_	_	1.000000
-31	noch	noch	ADV	ADV	_	_	_	_	0.996691
-32	etwas	etwas	ADV	ADV	_	_	_	_	0.847276
-33	mehr	mehr	ADV	ADV	_	_	_	_	0.792583
-34	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2230 2230 2233 2240 2244 2247 2250 2258 2262 2267 2269 2273 2287 2294 2306 2311 2318 2320
-###C: end_offsets = 2321 2232 2239 2243 2246 2249 2257 2261 2267 2268 2272 2286 2293 2305 2310 2317 2320 2321
-1	Er	er	PPER	PPER	_	_	_	_	1.000000
-2	spielt	spielen	VVFIN	VVFIN	_	_	_	_	0.999993
-3	bis	bis	KON	KON	_	_	_	_	0.766714
-4	zu	zu	APPR	APPR	_	_	_	_	0.993107
-5	30	30	CARD	CARD	_	_	_	_	1.000000
-6	Minuten	Minute	NN	NN	_	_	_	_	1.000000
-7	pro	pro	APPR	APPR	_	_	_	_	1.000000
-8	Match	Match	NN	NN	_	_	_	_	1.000000
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	und	und	KON	KON	_	_	_	_	1.000000
-11	normalerweise	normalerweise	ADV	ADV	_	_	_	_	1.000000
-12	stehen	stehen	VVFIN	VVFIN	_	_	_	_	0.999932
-13	wöchentlich	wöchentlich	ADJD	ADJD	_	_	_	_	1.000000
-14	drei	drei	CARD	CARD	_	_	_	_	1.000000
-15	Spiele	Spiel	NN	NN	_	_	_	_	1.000000
-16	an	an	PTKVZ	PTKVZ	_	_	_	_	0.969773
-17	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2322 2322 2331 2336 2339 2349 2351 2359 2363 2371 2376 2384 2392
-###C: end_offsets = 2393 2330 2335 2338 2349 2350 2358 2362 2370 2375 2383 2392 2393
-1	Meistens	meistens	ADV	ADV	_	_	_	_	1.000000
-2	wird	werden	VAFIN	VAFIN	_	_	_	_	1.000000
-3	am	an	APPRART	APPRART	_	_	_	_	0.998602
-4	Donnerstag	Donnerstag	NN	NN	_	_	_	_	1.000000
-5	,	,	$,	$,	_	_	_	_	1.000000
-6	Freitag	Freitag	NN	NN	_	_	_	_	0.933988
-7	und	und	KON	KON	_	_	_	_	1.000000
-8	Samstag	Samstag	NN	NN	_	_	_	_	1.000000
-9	oder	oder	KON	KON	_	_	_	_	1.000000
-10	Sonntag	Sonntag	NN	NN	_	_	_	_	0.767852
-11	gespielt	spielen	VVPP	VVPP	_	_	_	_	0.987774
-12	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2394 2394 2403 2407 2416 2418 2423 2426 2429 2436 2443 2449 2455 2460 2468 2472 2477 2478 2482 2489 2498 2500 2508 2511
-###C: end_offsets = 2512 2402 2406 2416 2417 2422 2425 2428 2435 2442 2448 2454 2459 2467 2471 2476 2478 2481 2488 2498 2499 2507 2511 2512
-1	Helbling	--	NE	NE	_	_	_	_	0.772217
-2	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-3	überzeugt	überzeugt	ADJD	ADJD	_	_	_	_	0.764430
-4	,	,	$,	$,	_	_	_	_	1.000000
-5	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-6	er	er	PPER	PPER	_	_	_	_	1.000000
-7	in	in	APPR	APPR	_	_	_	_	1.000000
-8	dieser	dies	PDAT	PDAT	_	_	_	_	0.999877
-9	Saison	Saison	NN	NN	_	_	_	_	1.000000
-10	schon	schon	ADV	ADV	_	_	_	_	0.999995
-11	enorm	enorm	ADJD	ADJD	_	_	_	_	1.000000
-12	viel	viel	ADV	ADV	_	_	_	_	0.713656
-13	gelernt	lernen	VVPP	VVPP	_	_	_	_	1.000000
-14	und	und	KON	KON	_	_	_	_	1.000000
-15	sich	sich	PRF	PRF	_	_	_	_	1.000000
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	ans	ans	APPRART	APPRART	_	_	_	_	1.000000
-18	andere	andere	PIS	PIS	_	_	_	_	0.899923
-19	Eishockey	Eishockey	NN	NN	_	_	_	_	1.000000
-20	"	"	$(	$(	_	_	_	_	1.000000
-21	gewöhnt	gewöhnen	VVPP	VVPP	_	_	_	_	0.800978
-22	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-23	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2513 2513 2514 2518 2525 2529 2532 2536 2540 2546 2549 2554 2558 2561 2565 2578 2579 2580 2582 2588 2591 2594 2596 2597 2602 2609 2614 2618 2623 2625 2628 2633 2636 2646
-###C: end_offsets = 2647 2514 2517 2524 2528 2531 2535 2539 2545 2548 2553 2557 2560 2564 2577 2579 2580 2581 2587 2590 2594 2595 2597 2601 2608 2613 2617 2623 2624 2627 2632 2635 2646 2647
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Das	die	ART	ART	_	_	_	_	0.937509
-3	Niveau	Niveau	NN	NN	_	_	_	_	1.000000
-4	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-5	in	in	APPR	APPR	_	_	_	_	1.000000
-6	der	die	ART	ART	_	_	_	_	0.999671
-7	OHL	--	NN	NN	_	_	_	_	0.609433
-8	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-9	so	so	ADV	ADV	_	_	_	_	0.999995
-10	hoch	hoch	ADJD	ADJD	_	_	_	_	0.940128
-11	wie	wie	KOKOM	KOKOM	_	_	_	_	0.999736
-12	in	in	APPR	APPR	_	_	_	_	1.000000
-13	der	die	ART	ART	_	_	_	_	0.999980
-14	Nationalliga	Nationalliga	NN	NN	_	_	_	_	1.000000
-15	A	A	FM	FM	_	_	_	_	0.649062
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	räumt	räumen	VVFIN	VVFIN	_	_	_	_	0.999984
-19	er	er	PPER	PPER	_	_	_	_	1.000000
-20	ein	ein	PTKVZ	PTKVZ	_	_	_	_	0.997919
-21	,	,	$,	$,	_	_	_	_	1.000000
-22	"	"	$(	$(	_	_	_	_	1.000000
-23	doch	doch	KON	KON	_	_	_	_	0.511263
-24	Spiele	Spiel	NN	NN	_	_	_	_	1.000000
-25	sind	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-26	das	die	ART	ART	_	_	_	_	0.972196
-27	Beste	Beste	NN	NN	_	_	_	_	0.833569
-28	,	,	$,	$,	_	_	_	_	1.000000
-29	um	um	KOUI	KOUI	_	_	_	_	0.978288
-30	sich	sich	PRF	PRF	_	_	_	_	1.000000
-31	zu	zu	PTKZU	PTKZU	_	_	_	_	0.955683
-32	entwickeln	entwickeln	VVINF	VVINF	_	_	_	_	0.995871
-33	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2647 2647 2649 2658 2662 2670 2674 2683 2697 2705
-###C: end_offsets = 2706 2648 2657 2661 2669 2673 2682 2696 2705 2706
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Helbling	--	NE	NE	_	_	_	_	0.444734
-3	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-4	ruhiger	ruhig	ADJD	ADJD	_	_	_	_	0.979911
-5	und	und	KON	KON	_	_	_	_	1.000000
-6	defensiv	defensiv	ADJD	ADJD	_	_	_	_	1.000000
-7	verlässlicher	verlässlich	ADJD	ADJD	_	_	_	_	0.999384
-8	geworden	werden	VAPP	VAPP	_	_	_	_	1.000000
-9	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2707 2707 2708 2713 2719 2724 2733 2737 2742 2747 2753 2762 2763 2765 2770 2773 2786
-###C: end_offsets = 2787 2708 2712 2718 2723 2732 2736 2741 2746 2752 2762 2763 2764 2769 2772 2786 2787
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Eins	eins	CARD	CARD	_	_	_	_	0.780848
-3	gegen	gegen	APPR	APPR	_	_	_	_	0.999999
-4	eins	eins	CARD	CARD	_	_	_	_	1.000000
-5	verliere	verlieren	VVFIN	VVFIN	_	_	_	_	1.000000
-6	ich	ich	PPER	PPER	_	_	_	_	1.000000
-7	kaum	kaum	ADV	ADV	_	_	_	_	1.000000
-8	mehr	mehr	ADV	ADV	_	_	_	_	0.914794
-9	einen	eine	ART	ART	_	_	_	_	0.975250
-10	Zweikampf	Zweikampf	NN	NN	_	_	_	_	1.000000
-11	"	"	$(	$(	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	sagt	sagen	VVFIN	VVFIN	_	_	_	_	0.999999
-14	er	er	PPER	PPER	_	_	_	_	1.000000
-15	selbstbewusst	selbstbewusst	ADJD	ADJD	_	_	_	_	1.000000
-16	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2788 2788 2792 2795 2799 2806 2808 2813 2816 2820 2824 2832 2843 2848 2854 2858 2864 2867 2869 2873 2878 2886 2894 2898 2904 2912 2927
-###C: end_offsets = 2928 2791 2794 2798 2806 2807 2812 2815 2819 2823 2831 2842 2847 2853 2857 2863 2867 2868 2872 2877 2885 2893 2897 2903 2911 2927 2928
-1	Und	und	KON	KON	_	_	_	_	1.000000
-2	er	er	PPER	PPER	_	_	_	_	1.000000
-3	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-4	gelernt	lernen	VVPP	VVPP	_	_	_	_	1.000000
-5	,	,	$,	$,	_	_	_	_	1.000000
-6	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-7	es	es	PPER	PPER	_	_	_	_	1.000000
-8	auf	auf	APPR	APPR	_	_	_	_	0.996028
-9	den	die	ART	ART	_	_	_	_	0.999884
-10	kleinen	klein	ADJA	ADJA	_	_	_	_	1.000000
-11	Eisfeldern	Eisfeld	NN	NN	_	_	_	_	1.000000
-12	fast	fast	ADV	ADV	_	_	_	_	1.000000
-13	immer	immer	ADV	ADV	_	_	_	_	1.000000
-14	das	die	ART	ART	_	_	_	_	0.994554
-15	Beste	Beste	NN	NN	_	_	_	_	0.965535
-16	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	den	die	ART	ART	_	_	_	_	0.991341
-19	Puck	Puck	NN	NN	_	_	_	_	1.000000
-20	einfach	einfach	ADJD	ADJD	_	_	_	_	0.940820
-21	schnell	schnell	ADJD	ADJD	_	_	_	_	1.000000
-22	der	die	ART	ART	_	_	_	_	0.999941
-23	Bande	Bande	NN	NN	_	_	_	_	1.000000
-24	entlang	entlang	APPO	APPO	_	_	_	_	0.993429
-25	hinauszuspielen	hinausspielen	VVIZU	VVIZU	_	_	_	_	1.000000
-26	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 2929 2929 2932 2944 2949 2953 2959 2971 2977 2985 2987 2992 2995 2999 3007 3013 3017 3026 3033 3042 3044 3047 3051 3055 3057 3062 3067 3071 3079 3081 3086 3088 3097 3099 3108 3110 3118 3123 3129
-###C: end_offsets = 3130 2931 2943 2948 2952 2958 2970 2976 2985 2986 2991 2994 2998 3006 3012 3016 3025 3032 3041 3043 3046 3050 3055 3056 3061 3066 3070 3079 3080 3086 3087 3097 3098 3108 3109 3117 3122 3129 3130
-1	In	in	APPR	APPR	_	_	_	_	0.999968
-2	Nordamerika	Nordamerika	NE	NE	_	_	_	_	1.000000
-3	wird	werden	VAFIN	VAFIN	_	_	_	_	1.000000
-4	von	von	APPR	APPR	_	_	_	_	0.999757
-5	einem	eine	ART	ART	_	_	_	_	0.998932
-6	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-7	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-8	erwartet	erwarten	VVPP	VVPP	_	_	_	_	0.878218
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-11	er	er	PPER	PPER	_	_	_	_	1.000000
-12	die	die	ART	ART	_	_	_	_	0.998283
-13	Stürmer	Stürmer	NN	NN	_	_	_	_	1.000000
-14	stets	stets	ADV	ADV	_	_	_	_	1.000000
-15	mit	mit	APPR	APPR	_	_	_	_	0.999553
-16	genialen	genial	ADJA	ADJA	_	_	_	_	1.000000
-17	Pässen	Pass	NN	NN	_	_	_	_	1.000000
-18	lanciert	lancieren	VVPP	VVPP	_	_	_	_	0.797526
-19	-	-	$(	$(	_	_	_	_	1.000000
-20	es	es	PPER	PPER	_	_	_	_	1.000000
-21	sei	sein	VAFIN	VAFIN	_	_	_	_	0.999995
-22	denn	denn	ADV	ADV	_	_	_	_	0.973451
-23	,	,	$,	$,	_	_	_	_	1.000000
-24	sein	sein	PPOSAT	PPOSAT	_	_	_	_	0.999999
-25	Name	Name	NN	NN	_	_	_	_	1.000000
-26	sei	sein	VAFIN	VAFIN	_	_	_	_	0.999999
-27	Lidström	--	NN	NN	_	_	_	_	0.953224
-28	,	,	$,	$,	_	_	_	_	1.000000
-29	Blake	Blake	NE	NE	_	_	_	_	1.000000
-30	,	,	$,	$,	_	_	_	_	1.000000
-31	Ozolinsch	--	NN	NN	_	_	_	_	1.000000
-32	,	,	$,	$,	_	_	_	_	1.000000
-33	Gontschar	--	NN	NN	_	_	_	_	0.999505
-34	,	,	$,	$,	_	_	_	_	1.000000
-35	Pronger	--	VVFIN	VVFIN	_	_	_	_	0.413156
-36	oder	oder	KON	KON	_	_	_	_	1.000000
-37	Leetch	--	VVFIN	VVFIN	_	_	_	_	0.594109
-38	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3131 3131 3135 3145 3153 3157 3169 3176 3178 3188 3190 3196 3202 3209
-###C: end_offsets = 3210 3134 3144 3152 3156 3168 3176 3177 3188 3189 3195 3200 3209 3210
-1	Bei	bei	APPR	APPR	_	_	_	_	0.999996
-2	Nashville	Nashville	NE	NE	_	_	_	_	1.000000
-3	heissen	heißen	VVFIN	VVFIN	_	_	_	_	0.986220
-4	die	die	ART	ART	_	_	_	_	0.999352
-5	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-6	Timonen	--	NE	NE	_	_	_	_	0.830001
-7	,	,	$,	$,	_	_	_	_	1.000000
-8	Berehovsky	--	NE	NE	_	_	_	_	0.925025
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	Hulse	--	NN	NN	_	_	_	_	0.999089
-11	oder	oder	KON	KON	_	_	_	_	1.000000
-12	Houlder	--	NE	NE	_	_	_	_	0.794028
-13	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3211 3211 3215 3221 3227 3234 3236 3240 3248 3252 3267 3273 3275 3279 3283 3287 3296 3305 3307 3311 3315 3319 3327 3339 3343 3345 3347 3353 3356 3363
-###C: end_offsets = 3364 3214 3220 3226 3234 3235 3239 3247 3251 3266 3273 3274 3278 3282 3286 3295 3305 3306 3310 3314 3318 3326 3338 3342 3345 3346 3352 3355 3363 3364
-1	Der	die	ART	ART	_	_	_	_	0.999389
-2	Finne	Finne	NN	NN	_	_	_	_	1.000000
-3	Kimmo	--	NE	NE	_	_	_	_	0.988083
-4	Timonen	--	NE	NE	_	_	_	_	0.955903
-5	,	,	$,	$,	_	_	_	_	1.000000
-6	ein	eine	ART	ART	_	_	_	_	0.998519
-7	Produkt	Produkt	NN	NN	_	_	_	_	1.000000
-8	der	die	ART	ART	_	_	_	_	0.999973
-9	Talentschmiede	Talentschmiede	NN	NN	_	_	_	_	1.000000
-10	Turkus	Turku	NE	NE	_	_	_	_	1.000000
-11	,	,	$,	$,	_	_	_	_	1.000000
-12	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-13	für	für	APPR	APPR	_	_	_	_	1.000000
-14	das	die	ART	ART	_	_	_	_	0.998419
-15	Kreative	Kreative	NN	NN	_	_	_	_	0.967391
-16	zuständig	zuständig	ADJD	ADJD	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	der	die	ART	ART	_	_	_	_	0.954604
-19	Job	Job	NN	NN	_	_	_	_	1.000000
-20	der	die	ART	ART	_	_	_	_	0.999642
-21	anderen	andere	PIAT	PIAT	_	_	_	_	0.942280
-22	Verteidiger	Verteidiger	NN	NN	_	_	_	_	1.000000
-23	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-24	es	es	PPER	PPER	_	_	_	_	1.000000
-25	,	,	$,	$,	_	_	_	_	1.000000
-26	solid	solid	ADJD	ADJD	_	_	_	_	1.000000
-27	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999627
-28	spielen	spielen	VVINF	VVINF	_	_	_	_	0.999969
-29	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3365 3365 3374 3378 3381 3385 3392 3394 3397 3402 3404 3409 3413 3423 3426 3432 3448 3449 3453 3459 3462 3467 3469 3472
-###C: end_offsets = 3473 3373 3377 3380 3384 3392 3393 3396 3402 3403 3408 3412 3422 3425 3431 3447 3449 3452 3458 3461 3467 3468 3472 3473
-1	Helbling	--	NE	NE	_	_	_	_	0.772217
-2	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-3	es	es	PPER	PPER	_	_	_	_	1.000000
-4	Mut	Mut	NN	NN	_	_	_	_	1.000000
-5	gemacht	machen	VVPP	VVPP	_	_	_	_	0.997958
-6	,	,	$,	$,	_	_	_	_	1.000000
-7	zu	zu	PTKZU	PTKZU	_	_	_	_	0.999029
-8	sehen	sehen	VVINF	VVINF	_	_	_	_	0.999856
-9	,	,	$,	$,	_	_	_	_	1.000000
-10	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-11	die	die	ART	ART	_	_	_	_	0.999053
-12	Differenz	Differenz	NN	NN	_	_	_	_	1.000000
-13	zu	zu	APPR	APPR	_	_	_	_	0.997238
-14	einem	eine	ART	ART	_	_	_	_	0.998935
-15	NHL-Verteidiger	--	NN	NN	_	_	_	_	0.996200
-16	"	"	$(	$(	_	_	_	_	1.000000
-17	gar	gar	ADV	ADV	_	_	_	_	0.997380
-18	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-19	so	so	ADV	ADV	_	_	_	_	0.999995
-20	gross	groß	ADJD	ADJD	_	_	_	_	0.973339
-21	"	"	$(	$(	_	_	_	_	1.000000
-22	sei	sein	VAFIN	VAFIN	_	_	_	_	0.999999
-23	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3474 3474 3475 3484 3490 3498 3502 3508 3526 3533 3536 3541 3547 3558 3559 3561 3568 3570
-###C: end_offsets = 3571 3475 3483 3489 3497 3501 3507 3525 3532 3535 3540 3546 3558 3559 3560 3567 3570 3571
-1	"	"	$(	$(	_	_	_	_	1.000000
-2	Zwischen	zwischen	APPR	APPR	_	_	_	_	1.000000
-3	einem	eine	ART	ART	_	_	_	_	0.999117
-4	Houlder	--	NN	NN	_	_	_	_	0.775410
-5	und	und	KON	KON	_	_	_	_	1.000000
-6	einem	eine	ART	ART	_	_	_	_	0.999437
-7	Milwaukee-Spieler	--	NN	NN	_	_	_	_	1.000000
-8	siehst	sehen	VVFIN	VVFIN	_	_	_	_	1.000000
-9	du	du	PPER	PPER	_	_	_	_	1.000000
-10	kaum	kaum	ADV	ADV	_	_	_	_	1.000000
-11	einen	eine	ART	ART	_	_	_	_	0.987734
-12	Unterschied	Unterschied	NN	NN	_	_	_	_	0.999995
-13	"	"	$(	$(	_	_	_	_	1.000000
-14	,	,	$,	$,	_	_	_	_	1.000000
-15	glaubt	glauben	VVFIN	VVFIN	_	_	_	_	0.999993
-16	er	er	PPER	PPER	_	_	_	_	1.000000
-17	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3572 3572 3576 3581 3587 3617 3621 3629 3635 3639 3645 3648 3655 3664
-###C: end_offsets = 3665 3575 3580 3586 3616 3620 3628 3634 3638 3644 3647 3654 3664 3665
-1	Das	die	ART	ART	_	_	_	_	0.935205
-2	Plus	Plus	NN	NN	_	_	_	_	0.928094
-3	eines	eine	ART	ART	_	_	_	_	0.997835
-4	NHL-Durchschnittsverteidigers	--	NN	NN	_	_	_	_	1.000000
-5	wie	wie	KOKOM	KOKOM	_	_	_	_	0.997613
-6	Houlder	--	NN	NN	_	_	_	_	0.649910
-7	liege	liegen	VVFIN	VVFIN	_	_	_	_	1.000000
-8	vor	vor	APPR	APPR	_	_	_	_	0.950608
-9	allem	alle	PIS	PIS	_	_	_	_	0.998353
-10	in	in	APPR	APPR	_	_	_	_	1.000000
-11	dessen	die	PDAT	PDAT	_	_	_	_	0.995469
-12	Erfahrung	Erfahrung	NN	NN	_	_	_	_	1.000000
-13	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3666 3666 3670 3684 3692 3702 3712 3720 3731 3744 3748 3753 3758 3764 3766 3770 3773 3777 3781 3784 3788 3795 3800 3803 3808 3811 3819 3824 3830 3841 3847 3849 3857 3860 3864 3878 3893
-###C: end_offsets = 3894 3669 3683 3691 3701 3711 3719 3729 3743 3747 3752 3757 3764 3765 3769 3772 3776 3780 3783 3787 3794 3800 3801 3807 3810 3818 3823 3829 3840 3847 3848 3856 3859 3863 3876 3893 3894
-1	Der	die	ART	ART	_	_	_	_	0.997640
-2	entscheidende	entscheidend	ADJA	ADJA	_	_	_	_	1.000000
-3	Vorteil	Vorteil	NN	NN	_	_	_	_	1.000000
-4	Helblings	--	NE	NE	_	_	_	_	0.997609
-5	gegenüber	gegenüber	APPR	APPR	_	_	_	_	0.979668
-6	anderen	andere	PIS	PIS	_	_	_	_	0.696600
-7	Schweizer	Schweizer	ADJA	ADJA	_	_	_	_	0.991533
-8	Verteidigern	Verteidiger	NN	NN	_	_	_	_	1.000000
-9	wie	wie	KOKOM	KOKOM	_	_	_	_	0.993093
-10	etwa	etwa	ADV	ADV	_	_	_	_	1.000000
-11	Mark	Mark	NN	NN	_	_	_	_	0.968055
-12	Streit	Streit	NN	NN	_	_	_	_	1.000000
-13	,	,	$,	$,	_	_	_	_	1.000000
-14	der	die	PRELS	PRELS	_	_	_	_	0.926198
-15	in	in	APPR	APPR	_	_	_	_	1.000000
-16	der	die	ART	ART	_	_	_	_	0.999980
-17	NLA	--	NN	NN	_	_	_	_	0.999952
-18	zu	zu	APPR	APPR	_	_	_	_	0.997236
-19	den	die	ART	ART	_	_	_	_	0.999968
-20	Besten	Beste	NN	NN	_	_	_	_	0.988342
-21	zählt	zählen	VVFIN	VVFIN	_	_	_	_	0.999999
-22	,	,	$,	$,	_	_	_	_	1.000000
-23	sich	sich	PRF	PRF	_	_	_	_	1.000000
-24	in	in	APPR	APPR	_	_	_	_	1.000000
-25	Übersee	Übersee	NN	NN	_	_	_	_	1.000000
-26	aber	aber	ADV	ADV	_	_	_	_	0.665670
-27	nicht	nicht	PTKNEG	PTKNEG	_	_	_	_	1.000000
-28	etablieren	etablieren	VVINF	VVINF	_	_	_	_	1.000000
-29	konnte	können	VMFIN	VMFIN	_	_	_	_	1.000000
-30	,	,	$,	$,	_	_	_	_	1.000000
-31	besteht	bestehen	VVFIN	VVFIN	_	_	_	_	0.999529
-32	in	in	APPR	APPR	_	_	_	_	1.000000
-33	den	die	ART	ART	_	_	_	_	0.999888
-34	körperlichen	körperlich	ADJA	ADJA	_	_	_	_	1.000000
-35	Voraussetzungen	Voraussetzung	NN	NN	_	_	_	_	1.000000
-36	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3895 3895 3899 3904 3906 3913 3917 3920 3923 3924 3932 3940 3942 3950 3959 3964 3968 3975 3992
-###C: end_offsets = 3993 3898 3903 3905 3912 3916 3919 3922 3924 3931 3940 3941 3949 3958 3963 3967 3974 3992 3993
-1	Mit	mit	APPR	APPR	_	_	_	_	0.999996
-2	1,89	@card@	CARD	CARD	_	_	_	_	0.998286
-3	m	m	NN	NN	_	_	_	_	1.000000
-4	Grösse	Größe	NN	NN	_	_	_	_	1.000000
-5	und	und	KON	KON	_	_	_	_	1.000000
-6	94	@card@	CARD	CARD	_	_	_	_	0.996320
-7	kg	kg	NN	NN	_	_	_	_	1.000000
-8	(	(	$(	$(	_	_	_	_	1.000000
-9	Tendenz	Tendenz	NN	NN	_	_	_	_	1.000000
-10	steigend	steigend	ADJD	ADJD	_	_	_	_	1.000000
-11	)	)	$(	$(	_	_	_	_	1.000000
-12	verfügt	verfügen	VVFIN	VVFIN	_	_	_	_	0.948543
-13	Helbling	--	NE	NE	_	_	_	_	0.991048
-14	über	über	APPR	APPR	_	_	_	_	0.999855
-15	die	die	ART	ART	_	_	_	_	0.999760
-16	nötige	nötig	ADJA	ADJA	_	_	_	_	0.999989
-17	Wasserverdrängung	Wasserverdrängung	NN	NN	_	_	_	_	1.000000
-18	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 3994 3994 3998 4002 4014 4016 4021 4024 4028 4030 4034 4047 4055 4059 4063 4071 4075 4087 4092 4096 4100 4107 4110 4111 4120 4121
-###C: end_offsets = 4122 3997 4001 4014 4015 4020 4023 4028 4029 4033 4046 4054 4058 4062 4070 4074 4086 4091 4095 4099 4106 4109 4111 4120 4121 4122
-1	Das	die	PDS	PDS	_	_	_	_	0.998795
-2	ist	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-3	entscheidend	entscheidend	ADJD	ADJD	_	_	_	_	1.000000
-4	,	,	$,	$,	_	_	_	_	1.000000
-5	wenn	wenn	KOUS	KOUS	_	_	_	_	1.000000
-6	es	es	PPER	PPER	_	_	_	_	1.000000
-7	gilt	gelten	VVFIN	VVFIN	_	_	_	_	0.999994
-8	,	,	$,	$,	_	_	_	_	1.000000
-9	die	die	ART	ART	_	_	_	_	0.879386
-10	gegnerischen	gegnerisch	ADJA	ADJA	_	_	_	_	1.000000
-11	Stürmer	Stürmer	NN	NN	_	_	_	_	1.000000
-12	vor	vor	APPR	APPR	_	_	_	_	0.992727
-13	dem	die	ART	ART	_	_	_	_	0.999803
-14	eigenen	eigen	ADJA	ADJA	_	_	_	_	1.000000
-15	Tor	Tor	NN	NN	_	_	_	_	1.000000
-16	wegzuräumen	wegräumen	VVIZU	VVIZU	_	_	_	_	1.000000
-17	oder	oder	KON	KON	_	_	_	_	1.000000
-18	sie	sie	PPER	PPER	_	_	_	_	1.000000
-19	mit	mit	APPR	APPR	_	_	_	_	0.995672
-20	Checks	Check	NN	NN	_	_	_	_	1.000000
-21	zu	zu	PTKVZ	PTKVZ	_	_	_	_	0.557737
-22	"	"	$(	$(	_	_	_	_	1.000000
-23	bestrafen	bestrafen	VVINF	VVINF	_	_	_	_	0.733306
-24	"	"	$(	$(	_	_	_	_	1.000000
-25	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 4123 4123 4126 4132 4140 4147 4150 4158 4166 4173 4181 4190 4194 4203 4212 4215 4234 4244 4248 4253 4257 4264 4269 4276 4280 4287 4294
-###C: end_offsets = 4295 4125 4131 4139 4146 4149 4157 4165 4172 4179 4189 4193 4202 4211 4214 4233 4243 4247 4252 4255 4263 4268 4275 4279 4286 4294 4295
-1	In	in	APPR	APPR	_	_	_	_	1.000000
-2	sechs	sechs	CARD	CARD	_	_	_	_	1.000000
-3	Monaten	Monat	NN	NN	_	_	_	_	1.000000
-4	musste	müssen	VMFIN	VMFIN	_	_	_	_	1.000000
-5	er	er	PPER	PPER	_	_	_	_	1.000000
-6	bereits	bereits	ADV	ADV	_	_	_	_	1.000000
-7	viermal	viermal	ADV	ADV	_	_	_	_	1.000000
-8	genäht	nähen	VVPP	VVPP	_	_	_	_	1.000000
-9	werden	werden	VAFIN	VAFIN	_	_	_	_	0.946916
-10	Helbling	--	NE	NE	_	_	_	_	0.992759
-11	hat	haben	VAFIN	VAFIN	_	_	_	_	1.000000
-12	Gefallen	Gefallen	NN	NN	_	_	_	_	1.000000
-13	gefunden	finden	VVPP	VVPP	_	_	_	_	0.975884
-14	am	an	APPRART	APPRART	_	_	_	_	0.998792
-15	nordamerikanischen	nordamerikanisch	ADJA	ADJA	_	_	_	_	1.000000
-16	Eishockey	Eishockey	NN	NN	_	_	_	_	1.000000
-17	und	und	KON	KON	_	_	_	_	1.000000
-18	sich	sich	PRF	PRF	_	_	_	_	1.000000
-19	an	an	APPR	APPR	_	_	_	_	0.999437
-20	dessen	die	PDAT	PDAT	_	_	_	_	0.979663
-21	raue	rauh	ADJA	ADJA	_	_	_	_	0.997955
-22	Sitten	Sitte	NN	NN	_	_	_	_	1.000000
-23	und	und	KON	KON	_	_	_	_	1.000000
-24	Regeln	Regel	NN	NN	_	_	_	_	1.000000
-25	gewöhnt	gewöhnen	VVPP	VVPP	_	_	_	_	0.826941
-26	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 4296 4296 4299 4306 4315 4319 4323 4332 4341 4344 4348 4361 4365 4372 4382 4385 4389 4394 4396 4405 4412 4416 4421 4424 4428 4439 4443 4450 4456 4460 4467 4471 4476 4484 4491 4497
-###C: end_offsets = 4498 4298 4305 4314 4318 4322 4331 4340 4343 4347 4360 4364 4371 4381 4384 4388 4394 4395 4404 4411 4415 4420 4423 4427 4438 4442 4449 4455 4459 4466 4470 4475 4483 4490 4497 4498
-1	In	in	APPR	APPR	_	_	_	_	0.999968
-2	Moskau	Moskau	NE	NE	_	_	_	_	1.000000
-3	wuchtete	wuchten	VVFIN	VVFIN	_	_	_	_	1.000000
-4	ihn	er	PPER	PPER	_	_	_	_	1.000000
-5	der	die	ART	ART	_	_	_	_	0.999411
-6	Kanadier	Kanadier	NN	NN	_	_	_	_	1.000000
-7	Morisset	--	VVFIN	VVFIN	_	_	_	_	0.898907
-8	in	in	APPR	APPR	_	_	_	_	1.000000
-9	der	die	ART	ART	_	_	_	_	0.999980
-10	Schlussphase	Schlussphase	NN	NN	_	_	_	_	1.000000
-11	des	die	ART	ART	_	_	_	_	1.000000
-12	Spiels	Spiel	NN	NN	_	_	_	_	1.000000
-13	kopfvoran	--	ADJA	ADJA	_	_	_	_	1.000000
-14	in	in	APPR	APPR	_	_	_	_	1.000000
-15	die	die	ART	ART	_	_	_	_	0.999936
-16	Bande	Bande	NN	NN	_	_	_	_	1.000000
-17	,	,	$,	$,	_	_	_	_	1.000000
-18	Helbling	--	NE	NE	_	_	_	_	0.980174
-19	erlitt	erleiden	VVFIN	VVFIN	_	_	_	_	1.000000
-20	ein	eine	ART	ART	_	_	_	_	0.998021
-21	Loch	Loch	NN	NN	_	_	_	_	1.000000
-22	in	in	APPR	APPR	_	_	_	_	1.000000
-23	der	die	ART	ART	_	_	_	_	0.999980
-24	Unterlippe	Unterlippe	NN	NN	_	_	_	_	1.000000
-25	und	und	KON	KON	_	_	_	_	1.000000
-26	musste	müssen	VMFIN	VMFIN	_	_	_	_	1.000000
-27	innen	innen	ADV	ADV	_	_	_	_	0.876723
-28	wie	wie	KOKOM	KOKOM	_	_	_	_	0.994815
-29	aussen	außenßen	ADJD	ADJD	_	_	_	_	1.000000
-30	mit	mit	APPR	APPR	_	_	_	_	0.999611
-31	drei	drei	CARD	CARD	_	_	_	_	1.000000
-32	Stichen	Stich	NN	NN	_	_	_	_	1.000000
-33	genäht	nähen	VVPP	VVPP	_	_	_	_	1.000000
-34	werden	werden	VAINF	VAINF	_	_	_	_	0.988908
-35	.	.	$.	$.	_	_	_	_	1.000000
-
-###C: start_offsets = 4499 4499 4502 4506 4510 4514 4522 4526 4533 4537 4540 4546 4553 4555 4560 4564 4569 4575 4582 4589 4595
-###C: end_offsets = 4596 4501 4505 4509 4513 4521 4525 4532 4536 4539 4545 4553 4554 4559 4563 4568 4574 4581 4588 4595 4596
-1	Es	es	PPER	PPER	_	_	_	_	0.999698
-2	war	sein	VAFIN	VAFIN	_	_	_	_	1.000000
-3	für	für	APPR	APPR	_	_	_	_	1.000000
-4	ihn	er	PPER	PPER	_	_	_	_	1.000000
-5	bereits	bereits	ADV	ADV	_	_	_	_	1.000000
-6	das	die	ART	ART	_	_	_	_	0.978571
-7	vierte	viert	ADJA	ADJA	_	_	_	_	1.000000
-8	Mal	Mal	NN	NN	_	_	_	_	0.999880
-9	in	in	APPR	APPR	_	_	_	_	1.000000
-10	sechs	sechs	CARD	CARD	_	_	_	_	1.000000
-11	Monaten	Monat	NN	NN	_	_	_	_	1.000000
-12	,	,	$,	$,	_	_	_	_	1.000000
-13	dass	dass	KOUS	KOUS	_	_	_	_	1.000000
-14	ihm	er	PPER	PPER	_	_	_	_	1.000000
-15	eine	eine	ART	ART	_	_	_	_	0.999636
-16	Wunde	Wunde	NN	NN	_	_	_	_	0.983708
-17	genäht	nähen	VVPP	VVPP	_	_	_	_	1.000000
-18	werden	werden	VAINF	VAINF	_	_	_	_	0.999998
-19	musste	müssen	VMFIN	VMFIN	_	_	_	_	1.000000
-20	.	.	$.	$.	_	_	_	_	1.000000
-
diff --git a/DeReKo/tutorial_examples/multiprocess_test.py b/DeReKo/tutorial_examples/multiprocess_test.py
deleted file mode 100644
index 4c7611c..0000000
--- a/DeReKo/tutorial_examples/multiprocess_test.py
+++ /dev/null
@@ -1,56 +0,0 @@
-import multiprocessing as mp
-import numpy as np
-import time
-
-# How many CPU's are available:
-print("Number of processors: ", mp.cpu_count())
-USED_CPUS = 10
-print(f"Using {USED_CPUS} CPUs")
-
-
-# ----- SAMPLE PROBLEM: Return how many numbers per row are inside the requested Range -----
-
-# Prepare Example data
-np.random.RandomState(100)
-arr = np.random.randint(0, 10, size=[2000000, 5]) # Matrix with 2 million rows
-data = arr.tolist()
-
-# Main Function
-def howmany_within_range(i, row, minimum, maximum):
-    """Returns how many numbers lie within `maximum` and `minimum` in a given `row`"""
-    count = 0
-    for n in row:
-        if minimum <= n <= maximum:
-            count = count + 1
-    return i, count
-
-# Define callback function to collect the output in `results`
-def collect_result(result):
-    global results
-    results.append(result)
-
-if __name__ == '__main__':
-    # Solution Without Paralleization
-    start = time.time()
-    results = []
-    for i, row in enumerate(data):
-        results.append(howmany_within_range(i, row, minimum=4, maximum=8))
-    end = time.time()
-    print(results[:10])
-    print(f"SEQUENTIAL: It took {(end - start)} seconds!")
-    
-    # Parallelizing Solution
-    start = time.time()
-    results = []
-    with mp.Pool(processes=USED_CPUS) as pool:
-        for i, row in enumerate(data):
-            res = pool.apply_async(howmany_within_range, args=(i, row, 4, 8), callback=collect_result)
-        try:
-            print(res.get(timeout=1))
-        except mp.TimeoutError:
-            print("We lacked patience and got a multiprocessing.TimeoutError")
-        print("For the moment, the pool remains available for more work")
-    
-    end = time.time()
-    print(results[:10])
-    print(f"PARALLEL: It took {(end - start)} seconds!")
diff --git a/DeReKo/tutorial_examples/spark_test.py b/DeReKo/tutorial_examples/spark_test.py
deleted file mode 100644
index 0b7d73b..0000000
--- a/DeReKo/tutorial_examples/spark_test.py
+++ /dev/null
@@ -1,9 +0,0 @@
-from pyspark import SparkContext
-sc = SparkContext("local", "First App")
-
-logFile = "file:///home/daza/Frameworks/spark-3.0.0-bin-hadoop2.7/README.md"
-logData = sc.textFile(logFile).cache()
-numAs = logData.filter(lambda s: "a" in s).count()
-numBs = logData.filter(lambda s: "b" in s).count()
-
-print(f"Lines with a: {numAs}, Lines with b: {numBs}")
diff --git a/DeReKo/tutorial_examples/turku_client_test.py b/DeReKo/tutorial_examples/turku_client_test.py
deleted file mode 100644
index 646e5cb..0000000
--- a/DeReKo/tutorial_examples/turku_client_test.py
+++ /dev/null
@@ -1,30 +0,0 @@
-# TODO: write a client to make multiple requests to the server!
-import subprocess, json, time
-import requests
-
-
-def response_to_file(response_str, fname):
-    fout = open(fname, "w")
-    fout.write(response_str)
-    fout.close()
-
-
-if __name__ == "__main__":
-    start = time.time()
-    # 1) Read Original CoNLLU file properly
-    conll_files = ["mini_test_raw.conllu", "mini_test_raw.conllu"]
-    f = conll_files[0]
-    
-    # raw_text = "Das ist eine normales deutsche Satz von viele Satzen velleicht."
-    raw_text = subprocess.run(f"sed 's/^# /###C: /g' {f}", shell=True, stdout=subprocess.PIPE) # , stderr=open(f"log_{f}.txt", "w")
-    
-    # 2) For each file make a request to obtain the parse back
-    response = requests.post("http://localhost:7689/", data=raw_text.stdout)
-    print(response.text)
-    out_file_str = f.split(".")[0]+".parsed.conllu"
-    response_to_file(response.text, out_file_str)
-    
-    end = time.time()
-    print(f"Process took {(end - start)} seconds!")
-    
-    # 3)TODO: How to Parallelize this?
\ No newline at end of file
diff --git a/README.md b/README.md
index 8ce5e74..5ce3ed9 100644
--- a/README.md
+++ b/README.md
@@ -1,2 +1,230 @@
-# ids-projects
-Projects for IDS
+## Install Requirements
+
+### Create a Virtual Environment
+```
+	python3 -m venv venv
+	source venv/bin/activate
+	export PYTHONPATH=PYTHONPATH:.
+```
+
+### Install Libraries (as needed)
+
+#### SpaCy 2.x
+
+```
+pip install -U pip setuptools wheel
+pip install -U spacy==2.3.2
+```
+
+For more details you can visit the [official website](https://spacy.io/usage#quickstart)
+
+#### Turku Parser
+
+A neural parsing pipeline for segmentation, morphological tagging, dependency parsing and lemmatization with pre-trained models for more than 50 languages. Top ranker in the CoNLL-18 Shared Task.
+
+Follow the installation instructions in their [website](https://turkunlp.org/Turku-neural-parser-pipeline/install.html)
+
+
+#### TreeTagger
+
+A tool for annotating text with part-of-speech and lemma information.
+
+Follow the installation instructions in their [website](https://cis.uni-muenchen.de/~schmid/tools/TreeTagger/)
+
+#### RNNTagger
+
+RNNTagger was implemented in Python using the Deep Learning library PyTorch. Compared to TreeTagger, it has higher tagging accuracy and lemmatizes all tokens however it is much slower and requires GPUs.
+
+Follow the installation instructions in their [website](https://cis.uni-muenchen.de/~schmid/tools/RNNTagger/)
+
+#### SpaCy 3.x 
+
+(If you use this, it needs its own virtual environment to avoid conflict with SpaCy 2.x)
+
+```
+python3 -m venv venv
+source venv/bin/activate
+pip install -U pip setuptools wheel
+pip install -U spacy-nightly --pre
+```
+
+For more details on this version you can visit the [official website](https://nightly.spacy.io/usage)
+
+
+## Pre-trained Lemmatization & POS Taggers
+
+### Run TurkuNLP Parser
+
+We assume the Parser is already available at `/path/to/Turku-neural-parser-pipeline/`.
+
+This is a client-server software, therefore you must first start the server (for example inside an independent screen), and separately use the client code provided in our repo.
+
+1. Download the pre-trained models that you wish to use, and uncompress it in the root folder of the `Turku-neural-parser-pipeline` repository. Models are in this [URL](http://bionlp-www.utu.fi/dep-parser-models/). For example, the german model is called `models_de_gsd.tgz`.
+
+2. Run the Server:
+
+```
+screen -S turku-server
+
+cd /path/to/Turku-neural-parser-pipeline/
+
+source venv-parser-neural/bin/activate
+
+python full_pipeline_server.py --port 7689 --conf models_de_gsd/pipelines.yaml parse_conllu
+```
+
+3. Once the server is up and running, run the Client script (under the folder `systems/parse_turku.py`).
+
+The script receives 4 parameters:
+ * **input_file**: path to the (empty) CoNLL file that will be processed. An *empty* CoNLL file means that all columns (except column one, which should have a word-token can be empty)
+ * **corpus_name**: A string to distinguish the current corpus being processed
+ * **gld_token_type**: Determines the precise CoNLL Format of the input file. Current Options: CoNLL09_Token | CoNLLUP_Token (CoNLL-U).  
+ * **comment_str**: indicates what string determines if a line is a comment inside the CoNLL file.
+ 
+For example to parse the TIGER corpus (which is in CoNLL-U token format), one runs:
+
+```
+screen -S turku-client
+
+cd /path/to/this-repo/
+
+python systems/parse_turku.py \
+	--input_file /vol/work/kupietz/Tiger_2_2/data/german/tiger/test/german_tiger_test.conll \
+	--output_file /path/to/german_tiger_test \
+	--corpus_name TigerTestOld \
+	--gld_token_type CoNLLUP_Token 
+```
+
+This code fragments the CoNLL into N Chunks (currently hardcoded to get chunks of 10K sentences each, this is be able to fit any large file in memory). Once the script finishes, it produces a log file in: `logs/Parse_{corpus_name}_Turku.log` as well as output files in the form of `{output_file}.parsed.{chunk_index}.conllu`
+
+### Run TreeTagger
+
+TreeTagger requires a particular input file format where each line must have only one token and sentences are separated by a special token. We include a script to convert "normal" CoNLL files into this format. To do so, run:
+
+```
+python my_utils/conll_to_tok.py \
+	--src_file /vol/work/kupietz/Tiger_2_2/data/german/tiger/test/german_tiger_test.conll \
+	--output_file german_tiger_test \
+	--sent_sep "</S>" \
+	--token_type CoNLLUP_Token
+
+```
+
+This outputs a `output_file.sep.tok` with the proper format. Then go to the `path/to/TreeTagger/` and once inside that folder, run:
+
+```
+bash cmd/tree-tagger-german-notokenize /path/to/german_tiger_test.sep.tok > /path/to/output/german_tiger_test.TreeTagger.conll
+```
+
+### Run RNNTagger 
+
+RNNTagger uses a similar format as TreeTagger, but does not require a specific `</S>` separator. You can obtain the proper file with:
+
+```
+python my_utils/conll_to_tok.py \
+	--src_file /vol/work/kupietz/Tiger_2_2/data/german/tiger/test/german_tiger_test.conll \
+	--output_file german_tiger_test \
+	--token_type CoNLLUP_Token
+
+```
+
+This outputs a `output_file.tok` with the proper format. Then go to the `path/to/RNNTagger/`, activate the python environment where PyTorch is installed, and once inside that folder, run:
+
+```
+bash cmd/rnn-tagger-german-notokenize.sh /path/to/german_tiger_test.tok > /path/to/output/german_tiger_test.RNNTagger.conll
+```
+
+### Run SpaCy 2.x
+
+Our script for running the SpaCy pretrained parser can receive 8 parameters:
+ * **input_file**: path to the (empty) CoNLL file that will be processed. An *empty* CoNLL file means that all columns (except column one, which should have a word-token can be empty)
+ * **corpus_name**: A string to distinguish the current corpus being processed
+ * **output_file**: File where the SpaCy Predictions will be saved
+ * **text_file**: Output text file where the sentences will be saved in plain text (one sentence per line)
+ * **spacy_model**: a string indicating which SpaCy model should be used to process the text (e.g. `de_core_news_lg`)
+ * **gld_token_type**: Determines the precise CoNLL Format of the input file. Current Options: CoNLL09_Token | CoNLLUP_Token (CoNLL-U) and others (see `lib/CoNLL_Annotation.py` for the classes of tokens that can be used). 
+ * **use_germalemma**: Flag to decide wether to use Germalemma lemmatizer on top of SpaCy or not ("True" is recommended!)
+ * **comment_str**: indicates what string determines if a line is a comment inside the CoNLL file.
+
+To keep with the tiger_test example, one can obtain the SpaCy annotations by running:
+
+```
+python systems/parse_spacy.py \
+	--corpus_name TigerTest \
+	--gld_token_type CoNLLUP_Token \
+	--input_file /vol/work/kupietz/Tiger_2_2/data/german/tiger/test/german_tiger_test.conll \
+	--output_file /path/to/output/tiger_test.spacy.conllu \
+	--text_file /path/to/output/tiger_test_sentences.txt
+```
+
+Note that the script is already optimized for reading CoNLL-U files, keeping the appropriate comments, and partitioning huge files into N chunks and running them in parallel with M processes. These parameters are currently hard-coded, however they already contain the values that were found optimal to process the whole DeReKo corpus (but of course it can be furtherly adapted...).
+
+## Custom Train 
+
+### Train TurkuNLP Parser
+
+You can follow the instructions for training custom models [here](https://turkunlp.org/Turku-neural-parser-pipeline/training.html)
+
+
+## Evaluation of Taggers
+
+<< Insert Table of Results HERE >>
+
+
+### Train Spacy 2.x Tagger
+
+
+### Train Spacy 3.x Tagger (Transformer)
+
+
+
+## Overall Repository Structure
+
+#### DeReKo 
+Specific scripts for parallel execution of SpaCy Lemmatizer and Tagger on DeReKo big files
+
+* Text files used to process DeReKo: `dereko_all_filenames.txt` and `dereko_mini_test.txt`
+* `exec_dereko_parallel.sh`: Main Execution Script for running *N* SpaCy processes on **ALL DeReKo Files**.
+* `explore_dereko.py`: Prints available information of DeReko Directory
+* `turku_client_parser.py` (do I need this still? Must be the same as in systems/... DOUBLE CHECK!)
+* Directory `spacy_train`:
+	* `conll2spacy.py`: creates JSON dataset files readable by SpaCy scripts
+	* `custom_spacy_dereko.py`: Prepares pre-trained vector files to be SpaCy readable
+	* `custom_spacy_tagger_2x.py`: Trains a POS Tagger using SpaCy 2.x library 
+	* `custom_spacy_tagger_3x.py`: Trains a POS Tagger using SpaCy 3.x library 
+	* Config Files `*.cfg` used by SpaCy 3.x scripts
+
+#### lib 
+Main Class definitions and other useful resources
+
+* `CoNLL_Annotation.py`: Contains the CoNLL Token Class definitions used by most systems to process CoNLL datasets.
+* `German_STTS_Tagset.tsv`: Inventory of German POS Tags as defined in the TIGER corpus
+
+#### logs
+Directory where the logging `*.log` files are saved
+
+#### my_utils
+Contains auxiliary scripts for file-handling, pre-processing and execution of systems
+
+* `clean_dereko_vectors.py`: 
+* `conll_to_tok.py`: 
+* `file_utils.py`: 
+* `make_new_orth_silver_lemmas.py`: DELETE!? 
+* `make_tiger_new_orth.py`:
+
+#### outputs
+Here is where all experiment's outputs are saved, including error analysis, evaluation stats, etcetera...
+
+#### systems
+Main scripts to execute the Lemmatizers and Taggers on any dataset
+
+* `parse_spacy.py`:
+* `parse_spacy3.py`:
+* `parse_turku.py`:
+* `Run_Tree-RNN_Taggers.txt`:
+
+#### systems_eval
+Scripts to evaluate and compare systems' performance
+
+* `eval_old_vs_new_tiger.py`:
+* `evaluate.py`:
diff --git a/my_utils/clean_dereko_vectors.py b/my_utils/clean_dereko_vectors.py
new file mode 100644
index 0000000..934ce27
--- /dev/null
+++ b/my_utils/clean_dereko_vectors.py
@@ -0,0 +1,14 @@
+import gzip
+
+ORIG_DEREKO_VECS = "/export/netapp/kupietz/embeddings/dereko-2020-ii-alpha.all.txt.gz"
+txt_vec = open("/home/daza/ids-projects/DeReKo/spacy_train/dereko-2020-ii-alpha.all.txt", "w")
+
+skept_vecs = 0
+with gzip.open(ORIG_DEREKO_VECS,'r') as f:        
+	for ix, line in enumerate(f):     
+		try:
+			txt_vec.write(line.decode("utf-8"))
+		except:
+			skept_vecs += 1
+
+print(skept_vecs)
\ No newline at end of file
diff --git a/my_utils/conll_to_tok.py b/my_utils/conll_to_tok.py
index d5656e8..8402e57 100644
--- a/my_utils/conll_to_tok.py
+++ b/my_utils/conll_to_tok.py
@@ -11,12 +11,20 @@
 				-s /home/daza/datasets/TIGER_conll/tiger_release_aug07.corrected.16012013.conll09 \
 				-ss "</S>" \
 				--token_type CoNLL09_Token
-				
+
+			*** GERMAN UNIVERSAL DEPS TEST ***
 			python my_utils/conll_to_tok.py \
 				-s /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu \
 				-ss "</S>" \
 				--token_type CoNLLUP_Token
+
+			*** TIGER TEST NEW ORTH ***
 			
+			python my_utils/conll_to_tok.py \
+			-s /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.NewOrth.test.conll \
+			-ss "</S>" \
+			--token_type CoNLLUP_Token
+		
 		For RNNTagger
 			python my_utils/conll_to_tok.py \
 				-s /home/daza/datasets/TIGER_conll/tiger_release_aug07.corrected.16012013.conll09 \
@@ -29,12 +37,18 @@
 	
 	parser = argparse.ArgumentParser()
 	parser.add_argument("-s", "--src_file", help="CoNLLU File to Convert into the .tok input for RNNTagger/TreeTagger", required=True)
+	parser.add_argument("-o", "--output_file", help="Output Formatted Corpus", default=None)
 	parser.add_argument("-t", "--token_type", help="Type of Token of the INPUT file", required=True)
 	parser.add_argument("-ss", "--sent_sep", help="Special separator to distinguish sentence boundaries", default="")
 	parser.add_argument("-c", "--com_str", help="Skip line if it starts with this string (comment market)", default="# ")
 	args = parser.parse_args()
 	
-	output_file = open(f"{args.src_file}.tok","w")
+	output_prefix = args.src_file if not args.output_file else args.output_file
+	
+	if args.sent_sep == "":
+		output_file = open(f"{output_prefix}.tok","w")
+	else:
+		output_file = open(f"{output_prefix}.sep.tok","w")
 	
 	for conll_obj in read_conll_generator(args.src_file, token_class=get_token_type(args.token_type), comment_str=args.com_str):
 		for tok in conll_obj.tokens:
diff --git a/my_utils/file_utils.py b/my_utils/file_utils.py
index e63ddca..4dbe1b4 100644
--- a/my_utils/file_utils.py
+++ b/my_utils/file_utils.py
@@ -1,20 +1,42 @@
 import requests, logging, json
+import subprocess, time
+import glob, logging
+import os.path, sys
 from lib.CoNLL_Annotation import read_conll, read_conll_generator
 
 logger = logging.getLogger(__name__)
 
 
-def dict_to_file(my_dict, out_path):
+def list_to_file(my_list, out_path):
     with open(out_path, "w") as out:
-        out.write(json.dump(my_dict))
+        for item_str in my_list:
+            out.write(f"{item_str}\n")
+
+def counter_to_file(my_counter, out_path):
+    with open(out_path, "w") as out:
+        for item, count in my_counter:
+            item_str = "\t".join(item)
+            out.write(f"{item_str}\t{count}\n")
+
+def dict_to_file(my_dict, out_path):
+    with open(out_path, "w", encoding='utf8') as out:
+        json.dump(my_dict, fp=out, ensure_ascii=False)
+
 
 def file_to_dict(file_path):
     d = {}
     with open(file_path) as f:
-        d = f.load(f)
+        d = json.load(f)
     return d  
 
 
+def write_conll_file(conll_objs, out_path):
+    with open(out_path, "w", encoding='utf8') as out:
+        for obj in conll_objs:
+            for tok in obj.tokens:
+                out.write(tok.get_conllU_line()+"\n")
+            out.write("\n")
+
 def file_generator(file_path):
     with open(file_path, "r") as data_file:
         logger.info("Reading instances from lines in file at: %s", file_path)
@@ -23,7 +45,16 @@
             yield line
 
 
+def get_file_annos_chunk(line_generator, chunk_size, token_class, comment_str="###C:"):
+    file_has_next = True
+    chunk, n_sents = read_conll(line_generator, chunk_size, token_class, comment_str=comment_str)
+    if n_sents == 0: file_has_next = False
+    sents, gld, meta = [], [], []
+    return chunk, file_has_next
+
+
 def get_file_text_chunk(line_generator, chunk_size, token_class, comment_str="###C:"):
+    """ Same as get_file_annos_chunk but directly get (text, labels) pairs"""
     file_has_next = True
     chunk, n_sents = read_conll(line_generator, chunk_size, token_class, comment_str=comment_str)
     if n_sents == 0: file_has_next = False
@@ -64,3 +95,30 @@
     fout = open(fname, "w")
     fout.write(response_str)
     fout.close()
+
+
+def expand_file(f, substitute_comment=False):
+    # Expand the .gz file
+    fname = f[:-3]
+    if not os.path.isfile(fname): 
+        p = subprocess.call(f"gunzip -c {f} > {fname}", shell=True)
+        if p == 0:
+            logger.info("Successfully uncompressed file")
+        else:
+            logger.info(f"Couldn't expand file {f}")
+            raise Exception
+    else:
+        logger.info(f"File {fname} is already uncompressed. Skipping this step...")
+    
+    # Substitute the Commentary Lines on the Expanded file
+    if substitute_comment:
+        fixed_filename = f"{fname}.fixed"
+        p = subprocess.call(f"sed 's/^# /###C: /g' {fname}", shell=True, stdout=open(fixed_filename, "w")) # stdout=subprocess.PIPE
+        if p == 0:
+            logger.info("Successfully fixed comments on file")
+        else:
+            logger.info(f"Something went wrong when substituting commentaries")
+            raise Exception    
+        return fixed_filename
+    else:
+        return fname
diff --git a/my_utils/make_new_orth_silver_lemmas.py b/my_utils/make_new_orth_silver_lemmas.py
new file mode 100644
index 0000000..e69de29
--- /dev/null
+++ b/my_utils/make_new_orth_silver_lemmas.py
diff --git a/my_utils/make_tiger_new_orth.py b/my_utils/make_tiger_new_orth.py
new file mode 100644
index 0000000..7bb42f4
--- /dev/null
+++ b/my_utils/make_tiger_new_orth.py
@@ -0,0 +1,78 @@
+import my_utils.file_utils as fu
+from lib.CoNLL_Annotation import read_conll, CoNLL09_Token, TigerNew_Token 
+from collections import Counter
+
+ORIGINAL_TIGER = "/home/daza/datasets/TIGER_conll/TIGER_original_data/tiger_release_aug07.corrected.16012013.conll09"
+NEW_ORTH = "/vol/work/kupietz/Tiger_2_2/data/german/tiger/train/german_tiger_new_orthography.csv"
+
+
+def get_confident_mapping(common_counts):
+	mapping = {}
+	for (old, new), cnt in common_counts:
+		if old not in mapping:
+			mapping[old] = (new, cnt)
+		else:
+			prev_tok, prev_cnt = mapping[old]
+			if cnt > prev_cnt:
+				mapping[old] = (new, cnt)
+	return {k: v[0] for k,v in mapping.items()}
+		
+
+def check_orthography(s_old,s_new):
+	global total_tokens
+	identical_sents = True
+	words_old = s_old.get_words()
+	words_new = s_new.get_words()
+	assert len(words_old) == len(words_new)
+	total_tokens += len(words_old)
+	for w1,w2 in zip(words_old, words_new):
+		if w1 != w2 and w1[0].lower() == w2[0].lower():
+			token_changes.append((w1, w2))
+			identical_sents = False
+	return identical_sents
+
+
+if __name__ == "__main__":
+	line_generator = fu.file_generator(ORIGINAL_TIGER)
+	original_sents, _ = read_conll(line_generator, chunk_size=60000, token_class=CoNLL09_Token, comment_str="#")
+	
+	line_generator = fu.file_generator(NEW_ORTH)
+	new_orth_sents, _ = read_conll(line_generator, chunk_size=60000, token_class=TigerNew_Token, comment_str="#")
+	
+	new_ix = 0
+	train_tiger, test_tiger = [], []
+	problematic_sents, token_changes = [], []
+	total_tokens = 0
+	for i, s1 in enumerate(original_sents):
+		s2 = new_orth_sents[new_ix]
+		print(f"--- {new_ix} ---\n{s1.get_sentence()}\n{s2.get_sentence()}\n\n")
+		if len(s1.get_words()) == len(s2.get_words()):
+			train_tiger.append((s1,s2))
+			identical_sents = check_orthography(s1,s2)
+			if not identical_sents: 
+				problematic_sents.append(new_ix)
+			new_ix += 1
+		else:
+			test_tiger.append(s1)
+	
+	# Print Stats
+	print(len(train_tiger))
+	print(len(test_tiger))
+	print(len(new_orth_sents))
+	print(f"{len(problematic_sents)}/{len(train_tiger)} ({len(problematic_sents)*100/len(train_tiger)}%) of sentences have change of orthography.")
+	print(f"{len(token_changes)}/{total_tokens} ({len(token_changes)*100/total_tokens}%) of tokens have change of orthography.")
+	# Save Files
+	save_path = "/home/daza/datasets/TIGER_conll"
+	new_cases = Counter(token_changes).most_common()
+	case_mapping = get_confident_mapping(new_cases)
+	# Stats
+	fu.counter_to_file(new_cases, f"{save_path}/TigerTokensChangeOrth.train.tsv")
+	fu.dict_to_file(case_mapping, f"{save_path}/TigerOrthMapping.train.json")
+	fu.list_to_file(problematic_sents, f"{save_path}/NewOrthProblems_Indices.train.txt")
+	# Train/Test Splits
+	old_train, new_train = zip(*train_tiger)
+	fu.write_conll_file(old_train, out_path=f"{save_path}/Tiger.OldOrth.train.conll")
+	fu.write_conll_file(new_train, out_path=f"{save_path}/Tiger.NewOrth.train.conll")
+	fu.write_conll_file(test_tiger, out_path=f"{save_path}/Tiger.OldOrth.test.conll")
+	
+		
diff --git a/systems/Run_Tree-RNN_Taggers.txt b/systems/Run_Tree-RNN_Taggers.txt
index e0ea45f..fe8be10 100644
--- a/systems/Run_Tree-RNN_Taggers.txt
+++ b/systems/Run_Tree-RNN_Taggers.txt
@@ -1,7 +1,17 @@
+# To Preprocess Files (conllu ---> .sep.tok ^ .tok)
+
+python my_utils/conll_to_tok.py \
+-s /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu \
+-ss "</S>" \
+--token_type CoNLLUP_Token
 
 # TreeTagger:
 
-time cmd/tree-tagger-german-notokenize /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu.sep.tok /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.treetagger.parsed.conll
+time cmd/tree-tagger-german-notokenize /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu.sep.tok > /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.treetagger.parsed.conll
+
+time cmd/tree-tagger-german-notokenize /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.OldOrth.test.conll.sep.tok > /home/daza/datasets/TIGER_conll/sys_outputs/Tiger.OldOrth.test.TreeTagger.conll
 	
 # RNN Tagger:
-time cmd/rnn-tagger-german-notokenize.sh /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu.tok > /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.RNNtagger.parsed.conll
\ No newline at end of file
+time cmd/rnn-tagger-german-notokenize.sh /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu.tok > /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.RNNtagger.parsed.conll
+
+time cmd/rnn-tagger-german-notokenize.sh /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.NewOrth.test.conll.tok > /home/daza/datasets/TIGER_conll/sys_outputs/Tiger.NewOrth.test.RNNTagger.conll
\ No newline at end of file
diff --git a/systems/parse_spacy.py b/systems/parse_spacy.py
index 75a1eb5..90ca237 100644
--- a/systems/parse_spacy.py
+++ b/systems/parse_spacy.py
@@ -18,8 +18,9 @@
 		return Doc(self.vocab, words=words, spaces=spaces)
 
 
-def get_conll_str(spacy_doc, use_germalemma):
-	conll_lines = [] # We want: [ID, FORM, LEMMA, UPOS, XPOS, FEATS, HEAD, DEPREL, DEPS, MISC]
+def get_conll_str(anno_obj, spacy_doc, use_germalemma):
+	#  First lines are comments. (metadata)
+	conll_lines = anno_obj.metadata # Then we want: [ID, FORM, LEMMA, UPOS, XPOS, FEATS, HEAD, DEPREL, DEPS, MISC]
 	for ix, token in enumerate(spacy_doc):
 		if use_germalemma == "True":
 			content = (str(ix), token.text, find_germalemma(token.text, token.tag_, token.lemma_), token.pos_, token.tag_, "_", "_", "_", "_", "_")
@@ -28,9 +29,6 @@
 		conll_lines.append("\t".join(content))
 	return "\n".join(conll_lines)
 
-
-# def freeling_lemma_lookup():
-# 	dicts_path = "/home/daza/Frameworks/FreeLing/data/de/dictionary/entries/"
 	
 def find_germalemma(word, pos, spacy_lemma):
 	simplify_pos = {"ADJA":"ADJ", "ADJD":"ADJ",
@@ -49,15 +47,37 @@
 if __name__ == "__main__":
 	"""
 		EXAMPLE:
-			python systems/parse_spacy.py --corpus_name Tiger \
+		--- TIGER Classic Orthography ---
+			python systems/parse_spacy.py --corpus_name Tiger --gld_token_type CoNLL09_Token \
 				-i /home/daza/datasets/TIGER_conll/tiger_release_aug07.corrected.16012013.conll09 \
 				-o /home/daza/datasets/TIGER_conll/tiger_spacy_parsed.conllu \
 				-t /home/daza/datasets/TIGER_conll/tiger_all.txt
 			
-			python systems/parse_spacy.py --corpus_name DE_GSD --gld_token_type CoNLLUP_Token \
+			python systems/parse_spacy.py --corpus_name TigerOld_test \
+			-i /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.OldOrth.test.conll \
+			-o /home/daza/datasets/TIGER_conll/tiger_spacy_parsed.test.conllu
+		
+		--- TIGER New Orthography ---
+			python systems/parse_spacy.py --corpus_name TigerNew \
+				-i /home/daza/datasets/TIGER_conll/Tiger.NewOrth.train.conll \
+				-o /home/daza/datasets/TIGER_conll/Tiger.NewOrth.train.spacy_parsed.conllu \
+				-t /home/daza/datasets/TIGER_conll/Tiger.NewOrth.train.txt
+			
+			python systems/parse_spacy.py --corpus_name TigerNew_test \
+			-i /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.NewOrth.test.conll \
+			-o /home/daza/datasets/TIGER_conll/Tiger.NewOrth.test.spacy_parsed.conllu
+		
+		--- German GSD Universal Deps ---
+			python systems/parse_spacy.py --corpus_name DE_GSD \
 				-i /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu \
 				-o /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.parsed.germalemma.conllu \
-				-t/home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.txt
+				-t /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.txt
+				
+			
+		--- Real Data TEST  ---
+		time python systems/parse_spacy.py --corpus_name DeReKo_a00 --comment_str "#" \
+			-i /export/netapp/kupietz/N-GRAMM-STUDIE/conllu/a00.conllu.gz \
+			-o /export/netapp/kupietz/N-GRAMM-STUDIE/conllu/0_SpaCyParsed/a00.spacy.gl.conllu
 	"""
 	
 	parser = argparse.ArgumentParser()
@@ -65,13 +85,16 @@
 	parser.add_argument("-n", "--corpus_name", help="Corpus Name", default="Corpus")
 	parser.add_argument("-o", "--output_file", help="File where the Predictions will be saved", required=True)
 	parser.add_argument("-t", "--text_file", help="Output Plain Text File", default=None)
-	parser.add_argument("-gtt", "--gld_token_type", help="CoNLL Format of the Gold Data", default="CoNLL09_Token")
+	parser.add_argument("-sm", "--spacy_model", help="Spacy model containing the pipeline to tag", default="de_core_news_lg")
+	parser.add_argument("-gtt", "--gld_token_type", help="CoNLL Format of the Gold Data", default="CoNLLUP_Token")
 	parser.add_argument("-ugl", "--use_germalemma", help="Use Germalemma lemmatizer on top of SpaCy", default="True")
 	parser.add_argument("-c", "--comment_str", help="CoNLL Format of comentaries inside the file", default="#")
 	args = parser.parse_args()
 	
 	file_has_next, chunk_ix = True, 0
-	CHUNK_SIZE = 10000
+	CHUNK_SIZE = 20000
+	SPACY_BATCH = 2000
+	SPACY_PROC = 10
 	
 	# =====================================================================================
 	#                    LOGGING INFO ...
@@ -85,22 +108,28 @@
 	# =====================================================================================
 	#                    POS TAG DOCUMENTS
 	# =====================================================================================
-	spacy_de = spacy.load("de_core_news_lg", disable=["ner", "parser"])
+	spacy_de = spacy.load(args.spacy_model, disable=["ner", "parser"])
 	spacy_de.tokenizer = WhitespaceTokenizer(spacy_de.vocab) # We won't re-tokenize to respect how the source CoNLL are tokenized!
 	write_out = open(args.output_file, "w")
 	lemmatizer = GermaLemma()
 	if args.text_file: write_plain = open(args.text_file, "w")
 	
+	if ".gz" == args.input_file[-3:]:
+		in_file = fu.expand_file(args.input_file)
+	else:
+		in_file = args.input_file
+	
 	start = time.time()
 	total_processed_sents = 0
-	line_generator = fu.file_generator(args.input_file)
+	line_generator = fu.file_generator(in_file)
 	while file_has_next:
-		sents, gld, file_has_next = fu.get_file_text_chunk(line_generator, chunk_size=CHUNK_SIZE, token_class=get_token_type(args.gld_token_type), comment_str=args.comment_str)
-		if len(sents) == 0: break
-		total_processed_sents += len(sents)
+		annos, file_has_next = fu.get_file_annos_chunk(line_generator, chunk_size=CHUNK_SIZE, 		token_class=get_token_type(args.gld_token_type), comment_str=args.comment_str)
+		if len(annos) == 0: break
+		total_processed_sents += len(annos)
 		logger.info(f"Already processed {total_processed_sents} sentences...")
-		for doc in spacy_de.pipe(sents, batch_size=1000, n_process=10):
-			conll_str = get_conll_str(doc, use_germalemma=args.use_germalemma)
+		sents = [a.get_sentence() for a in annos]
+		for ix, doc in enumerate(spacy_de.pipe(sents, batch_size=SPACY_BATCH, n_process=SPACY_PROC)):
+			conll_str = get_conll_str(annos[ix], doc, use_germalemma=args.use_germalemma)
 			write_out.write(conll_str)
 			write_out.write("\n\n")
 			if args.text_file:
diff --git a/systems/parse_spacy3.py b/systems/parse_spacy3.py
new file mode 100644
index 0000000..14e5a9f
--- /dev/null
+++ b/systems/parse_spacy3.py
@@ -0,0 +1,123 @@
+import argparse, os
+import spacy
+from spacy.language import Language
+from spacy.tokens import Doc
+import logging, sys, time
+from lib.CoNLL_Annotation import get_token_type
+import my_utils.file_utils as fu
+from germalemma import GermaLemma
+
+
+@Language.factory("my_component")
+class WhitespaceTokenizer(object):
+	def __init__(self, nlp, name):
+		self.vocab = nlp.vocab
+
+	def __call__(self, text):
+		words = text.split(' ')
+		# All tokens 'own' a subsequent space character in this tokenizer
+		spaces = [True] * len(words)
+		return Doc(self.vocab, words=words, spaces=spaces)
+
+
+def get_conll_str(anno_obj, spacy_doc, use_germalemma):
+	#  First lines are comments. (metadata)
+	conll_lines = anno_obj.metadata # Then we want: [ID, FORM, LEMMA, UPOS, XPOS, FEATS, HEAD, DEPREL, DEPS, MISC]
+	for ix, token in enumerate(spacy_doc):
+		if use_germalemma == "True":
+			content = (str(ix), token.text, find_germalemma(token.text, token.tag_, token.lemma_), token.pos_, token.tag_, "_", "_", "_", "_", "_")
+		else:
+			content = (str(ix), token.text, token.lemma_, token.pos_, token.tag_, "_", "_", "_", "_", "_") # Pure SpaCy!
+		conll_lines.append("\t".join(content))
+	return "\n".join(conll_lines)
+
+
+# def freeling_lemma_lookup():
+# 	dicts_path = "/home/daza/Frameworks/FreeLing/data/de/dictionary/entries/"
+	
+def find_germalemma(word, pos, spacy_lemma):
+	simplify_pos = {"ADJA":"ADJ", "ADJD":"ADJ",
+					"NA":"N", "NE":"N", "NN":"N",
+					"ADV":"ADV", "PAV":"ADV", "PROAV":"ADV", "PAVREL":"ADV", "PWAV":"ADV", "PWAVREL":"ADV",
+					"VAFIN":"V", "VAIMP":"V", "VAINF":"V", "VAPP":"V", "VMFIN":"V", "VMINF":"V",
+					"VMPP":"V", "VVFIN":"V", "VVIMP":"V", "VVINF":"V", "VVIZU":"V","VVPP":"V"
+				}
+	# simplify_pos = {"VERB": "V", "ADV": "ADV", "ADJ": "ADJ", "NOUN":"N", "PROPN": "N"}
+	try:
+		return lemmatizer.find_lemma(word, simplify_pos.get(pos, "UNK"))
+	except:
+		return spacy_lemma
+
+
+if __name__ == "__main__":
+	"""
+		EXAMPLE:
+		--- TIGER Classic Orthography ---
+			python systems/parse_spacy3.py --corpus_name TigerTestNew \
+				-i /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.NewOrth.test.conll \
+				-o /home/daza/datasets/TIGER_conll/tiger_spacy3_parsed.conllu
+	"""
+	
+	parser = argparse.ArgumentParser()
+	parser.add_argument("-i", "--input_file", help="Input Corpus", required=True)
+	parser.add_argument("-n", "--corpus_name", help="Corpus Name", default="Corpus")
+	parser.add_argument("-o", "--output_file", help="File where the Predictions will be saved", required=True)
+	parser.add_argument("-sm", "--spacy_model", help="Spacy model containing the pipeline to tag", default="de_core_news_sm")
+	parser.add_argument("-gtt", "--gld_token_type", help="CoNLL Format of the Gold Data", default="CoNLLUP_Token")
+	parser.add_argument("-ugl", "--use_germalemma", help="Use Germalemma lemmatizer on top of SpaCy", default="True")
+	parser.add_argument("-c", "--comment_str", help="CoNLL Format of comentaries inside the file", default="#")
+	args = parser.parse_args()
+	
+	file_has_next, chunk_ix = True, 0
+	CHUNK_SIZE = 1000
+	SPACY_BATCH = 100
+	SPACY_PROC = 4
+	
+	# =====================================================================================
+	#                    LOGGING INFO ...
+	# =====================================================================================
+	logger = logging.getLogger(__name__)
+	console_hdlr = logging.StreamHandler(sys.stdout)
+	file_hdlr = logging.FileHandler(filename=f"logs/Parse_{args.corpus_name}.SpaCy.log")
+	logging.basicConfig(level=logging.INFO, handlers=[console_hdlr, file_hdlr])
+	logger.info(f"Chunking {args.corpus_name} Corpus in chunks of {CHUNK_SIZE} Sentences")
+	
+	# =====================================================================================
+	#                    POS TAG DOCUMENTS
+	# =====================================================================================
+	
+	if os.path.exists(args.spacy_model):
+		pass # Load Custom Trained model
+	else:
+		# try:
+		spacy_de = spacy.load(args.spacy_model, disable=["ner", "parser"])
+		spacy_de.tokenizer = WhitespaceTokenizer(spacy_de, "keep_original_tokens") # We won't re-tokenize to respect how the source CoNLL are tokenized!
+		# except:
+		# 	print(f"Check if model {args.spacy_model} is a valid SpaCy Pipeline or if the Path containing the trained model exists!")
+		# 	exit()
+	
+	write_out = open(args.output_file, "w")
+	lemmatizer = GermaLemma()
+	
+	if ".gz" == args.input_file[-3:]:
+		in_file = fu.expand_file(args.input_file)
+	else:
+		in_file = args.input_file
+	
+	start = time.time()
+	total_processed_sents = 0
+	line_generator = fu.file_generator(in_file)
+	while file_has_next:
+		annos, file_has_next = fu.get_file_annos_chunk(line_generator, chunk_size=CHUNK_SIZE, 		token_class=get_token_type(args.gld_token_type), comment_str=args.comment_str)
+		if len(annos) == 0: break
+		total_processed_sents += len(annos)
+		logger.info(f"Already processed {total_processed_sents} sentences...")
+		sents = [a.get_sentence() for a in annos]
+		for ix, doc in enumerate(spacy_de.pipe(sents, batch_size=SPACY_BATCH, n_process=SPACY_PROC)):
+			conll_str = get_conll_str(annos[ix], doc, use_germalemma=args.use_germalemma)
+			write_out.write(conll_str)
+			write_out.write("\n\n")
+			
+	end = time.time()
+	logger.info(f"Processing {args.corpus_name} took {(end - start)} seconds!")
+			
\ No newline at end of file
diff --git a/systems/parse_turku.py b/systems/parse_turku.py
index 7694504..668a48c 100644
--- a/systems/parse_turku.py
+++ b/systems/parse_turku.py
@@ -7,10 +7,6 @@
 import argparse
 
 
-TIGER_CORPUS = "/home/daza/datasets/TIGER_conll/tiger_release_aug07.corrected.16012013.conll09"
-DE_GSD_CORPUS = "/home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu"
-
-
 if __name__ == "__main__":
     
     """
@@ -18,11 +14,15 @@
         
         python systems/parse_turku.py --corpus_name DE_GSD --gld_token_type CoNLLUP_Token \
             -i /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu
+        
+        python systems/parse_turku.py --corpus_name TigerTestOld --gld_token_type CoNLLUP_Token \
+        -i /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.OldOrth.test.conll
             
     """
     
     parser = argparse.ArgumentParser()
     parser.add_argument("-i", "--input_file", help="Input Corpus", required=True)
+    parser.add_argument("-o", "--output_file", help="Output Parsed Corpus", default=None)
     parser.add_argument("-n", "--corpus_name", help="Corpus Name", default="Corpus")
     parser.add_argument("-gtt", "--gld_token_type", help="CoNLL Format of the Gold Data", default="CoNLL09_Token")
     parser.add_argument("-c", "--comment_str", help="CoNLL Format of comentaries inside the file", default="#")
@@ -31,6 +31,8 @@
     file_has_next, chunk_ix = True, 0
     CHUNK_SIZE = 10000
     
+    output_file = args.input_file if not args.output_file else args.output_file
+    
     # =====================================================================================
     #                    LOGGING INFO ...
     # =====================================================================================
@@ -50,7 +52,7 @@
         raw_text, file_has_next, n_sents = fu.get_file_chunk(line_generator, chunk_size=CHUNK_SIZE, token_class=get_token_type(args.gld_token_type), comment_str=args.comment_str)
         total_processed_sents += n_sents
         if len(raw_text) > 0:
-            fu.turku_parse_file(raw_text, args.input_file, chunk_ix)
+            fu.turku_parse_file(raw_text, output_file, chunk_ix)
             now = time.time()
             elapsed = (now - start)
             logger.info(f"Time Elapsed: {elapsed}. Processed {total_processed_sents}. [{total_processed_sents/elapsed} Sents/sec]\n") # Toks/Sec???
diff --git a/systems_eval/eval_old_vs_new_tiger.py b/systems_eval/eval_old_vs_new_tiger.py
new file mode 100644
index 0000000..38dc597
--- /dev/null
+++ b/systems_eval/eval_old_vs_new_tiger.py
@@ -0,0 +1,35 @@
+import my_utils.file_utils as fu
+from lib.CoNLL_Annotation import read_conll, CoNLLUP_Token 
+from collections import Counter
+from germalemma import GermaLemma
+
+SPACY_NEW = "/home/daza/datasets/TIGER_conll/Tiger.NewOrth.train.spacy_parsed.conllu"
+CASES = "/home/daza/datasets/TIGER_conll/NewOrthProblems_Indices.train.txt"
+
+orth_dict = fu.file_to_dict("/vol/netapp/daza/datasets/TIGER_conll/TigerOrthMapping.train.json")
+new_to_old = {v:k for k,v in orth_dict.items()}
+
+
+if __name__ == "__main__":
+	line_generator = fu.file_generator(SPACY_NEW)
+	conll_sents, _ = read_conll(line_generator, chunk_size=60000, token_class=CoNLLUP_Token, comment_str="#")
+	special_cases = [int(line) for line in open(CASES).read().splitlines()]
+	checked_cases = []
+	
+	lemmatizer = GermaLemma()
+	
+	for ix, sent in enumerate(conll_sents):
+		if ix in special_cases:
+			for tok in sent.tokens:
+				old_word_change = new_to_old.get(tok.word)
+				if old_word_change:
+					try:
+						old_lemma = lemmatizer.find_lemma(old_word_change, tok.pos_tag)
+					except:
+						old_lemma = f"UNK_{tok.pos_tag}"
+					checked_cases.append((old_word_change, tok.word, old_lemma, tok.lemma))
+	
+	print(f"Cases checked: {len(checked_cases)}")
+	case_count = Counter(checked_cases).most_common()
+	fu.counter_to_file(case_count, "/home/daza/datasets/TIGER_conll/TigerLemmas_Old_New.tsv")
+	
\ No newline at end of file
diff --git a/systems/evaluate.py b/systems_eval/evaluate.py
similarity index 72%
rename from systems/evaluate.py
rename to systems_eval/evaluate.py
index 11ffd51..b87e203 100644
--- a/systems/evaluate.py
+++ b/systems_eval/evaluate.py
@@ -44,8 +44,13 @@
     match, err, symbol = 0, 0, []
     y_gld, y_pred, mistakes = [], [], []
     for i, gld_tok in enumerate(gld.tokens):
+<<<<<<< HEAD
+        sys_lemma = sys.tokens[i].lemma
+        # sys_lemma = tree_tagger_fixes.get(sys.tokens[i].lemma, sys.tokens[i].lemma)  # Omit TreeTagger "errors" because of article lemma disagreement 
+=======
         # sys_lemma = tree_tagger_fixes.get(sys.tokens[i].lemma, sys.tokens[i].lemma)  # Omit TreeTagger "errors" because of article lemma disagreement 
         sys_lemma = sys.tokens[i].lemma
+>>>>>>> 54e072e61c24a3ce12a7f47e17e9d8d0d1583236
         y_gld.append(gld_tok.pos_tag)
         y_pred.append(sys_lemma)
         if gld_tok.lemma == sys_lemma:
@@ -87,6 +92,59 @@
         
         ********** TIGER CORPUS ALL ************
         
+<<<<<<< HEAD
+            python systems/evaluate.py -t Turku --corpus_name Tiger --gld_token_type CoNLL09_Token \
+                --sys_file /home/daza/datasets/TIGER_conll/tiger_turku_parsed.conllu \
+                --gld_file /home/daza/datasets/TIGER_conll/tiger_release_aug07.corrected.16012013.conll09
+                
+            python systems/evaluate.py -t SpaCy --corpus_name Tiger --gld_token_type CoNLL09_Token \
+                --sys_file /home/daza/datasets/TIGER_conll/tiger_spacy_parsed.conllu \
+                --gld_file /home/daza/datasets/TIGER_conll/tiger_release_aug07.corrected.16012013.conll09
+                
+            python systems/evaluate.py -t RNNTagger --corpus_name Tiger --gld_token_type CoNLL09_Token \
+                --sys_file /home/daza/datasets/TIGER_conll/tiger_all.parsed.RNNTagger.conll \
+                --gld_file /home/daza/datasets/TIGER_conll/tiger_release_aug07.corrected.16012013.conll09
+            
+            python systems/evaluate.py -t TreeTagger --corpus_name Tiger --gld_token_type CoNLL09_Token \
+                --sys_file /home/daza/datasets/TIGER_conll/tiger_all.parsed.TreeTagger.conll \
+                --gld_file /home/daza/datasets/TIGER_conll/tiger_release_aug07.corrected.16012013.conll09
+            
+        
+        ********** TIGER CORPUS TEST ************
+        
+        python systems/evaluate.py -t SpaCy --corpus_name TigerTestOld \
+        --sys_file /home/daza/datasets/TIGER_conll/tiger_spacy_parsed.test.conllu \
+        --gld_file /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.OldOrth.test.conll
+        
+        python systems/evaluate.py -t SpaCy --corpus_name TigerTestNew \
+        --sys_file /home/daza/datasets/TIGER_conll/Tiger.NewOrth.test.spacy_parsed.conllu\
+        --gld_file /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.NewOrth.test.conll
+        
+        
+        python systems/evaluate.py -t Turku --corpus_name TigerTestNew \
+        --sys_file /home/daza/datasets/TIGER_conll/sys_outputs/Tiger.NewOrth.test.turku_parsed.conllu \
+        --gld_file /home/daza/datasets/TIGER_conll/data_splits/test/Tiger.NewOrth.test.conll
+        
+        ********** UNIVERSAL DEPENDENCIES TEST-SET ************
+
+            python systems/evaluate.py -t Turku --corpus_name DE_GSD \
+            --sys_file /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu.parsed.0.conllu \
+            --gld_file /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu    
+            
+            python systems/evaluate.py -t SpaCyGL --corpus_name DE_GSD \
+                --sys_file /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.parsed.germalemma.conllu \
+                --gld_file /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu    
+            
+            python systems/evaluate.py -t SpaCy --corpus_name DE_GSD \
+                --sys_file /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.parsed.conllu \
+                --gld_file /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu 
+                
+            python systems/evaluate.py -t RNNTagger --corpus_name DE_GSD \
+                --sys_file /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.RNNtagger.parsed.conll \
+                --gld_file /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu
+            
+            python systems/evaluate.py -t TreeTagger --corpus_name DE_GSD \
+=======
             python systems/evaluate.py -t Turku --corpus_name Tiger\
                 --sys_file /home/daza/datasets/TIGER_conll/tiger_turku_parsed.conllu \
                 --gld_file /home/daza/datasets/TIGER_conll/tiger_release_aug07.corrected.16012013.conll09
@@ -122,6 +180,7 @@
                 --gld_file /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu
             
             python systems/evaluate.py -t TreeTagger --gld_token_type CoNLLUP_Token --corpus_name DE_GSD\
+>>>>>>> 54e072e61c24a3ce12a7f47e17e9d8d0d1583236
                 --sys_file /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.treetagger.parsed.conll \
                 --gld_file /home/daza/datasets/ud-treebanks-v2.2/UD_German-GSD/de_gsd-ud-test.conllu
                 
@@ -133,9 +192,15 @@
     parser = argparse.ArgumentParser()
     parser.add_argument("-s", "--sys_file", help="System output in CoNLL-U Format", required=True)
     parser.add_argument("-g", "--gld_file", help="Gold Labels to evaluate in CoNLL-U Format", required=True)
+<<<<<<< HEAD
+    parser.add_argument("-c", "--corpus_name", help="Corpus Name for Gold Labels", required=True)
+    parser.add_argument("-t", "--type_sys", help="Which system produced the outputs", default="system")
+    parser.add_argument("-gtt", "--gld_token_type", help="CoNLL Format of the Gold Data", default="CoNLLUP_Token")
+=======
     parser.add_argument("-t", "--type_sys", help="Which system produced the outputs", default="system")
     parser.add_argument("-c", "--corpus_name", help="Corpus Name for Gold Labels", required=True)
     parser.add_argument("-gtt", "--gld_token_type", help="CoNLL Format of the Gold Data", default="CoNLL09_Token")
+>>>>>>> 54e072e61c24a3ce12a7f47e17e9d8d0d1583236
     parser.add_argument("-cs", "--comment_str", help="CoNLL Format of comentaries inside the file", default="#")
     args = parser.parse_args()