| |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| |
LessFs
Od: vadimosk
|
Pridané:
3.11.2009 8:32
Dalsi filesystem s tou istou funckiu sa vola LessFs. Myslim, ze ma zapnutu navyse aj kompresiu. Viac info tu:
http://www.lessfs.com/wordpress/
Kompilovat som sa ho este nepokusil.
|
| |
Re: LessFs
Od reg.: cinko
|
Pridané:
3.11.2009 9:17
hmm zaujimave este som o tomto fs nepocul... idem ho schvalne skusit skompilovat ;)
|
| |
Re: LessFs
Od: Mee
|
Pridané:
3.11.2009 21:58
ZFS ma tiez kompresiu.
|
| |
Re: LessFs
Od: skyww
|
Pridané:
9.11.2009 18:57
Milujem jak tu kazdy hovori o funkcii co uz davno existuje. Tento typ suboroveho systemu sa vyuziva na 99% pri vacsich storagoch, a tam to novinkou vobec neni. Napriklad IBM uz ma davno komplexne riesenie, menom data deduplication, a maju to podstatne lepsie vyriesene. Proste Slniecko chcelo mat nieco svoje tak okukalo konkurenciu
|
| |
assdff
Od: klerik_DK
|
Pridané:
3.11.2009 8:38
počkať ale čo ak si vytvorím kópiu (zálohu) súboru ktorý idem práve editovať... to potom editáciou stratím aj originál ? :-D
bude to vedieť rozoznať ? ak hej a dosť rýchlo tak je to super nápad (:
|
| |
Re: assdff
Od reg.: Marťan
|
Pridané:
3.11.2009 9:38
samozrejme nie, vsetky tieto duplicitne "linky" na rovnaky blok su samozrejme vzdy natvrdo a navzdy a zmena jedneho suboru sposobi zmenu druheho. Tvorcovia to volaju "randomize my files feature" ;)
|
| |
Re: assdff
Od reg.: cinko
|
Pridané:
3.11.2009 9:41
a to se vyplati :)
|
| |
Re: assdff
Od reg.: roob_
|
Pridané:
3.11.2009 10:28
nechapem. To ako ked mam subor a urobim jeho zalohu na rovnakej particii, tak sa urobi iba odkaz, a na disku bude zapisany len 1 subor. Potom ked tento povodny subor zmenim, tak odkaz ostane tak ako bol iba bude odkazovat na ten zmeneny subor? To je blbost, ne? Nebude to nahodou tak, ze pri zmene povodneho suboru alebo odkazu, sa vytvoria 2 subory kde povodny sa zmeni, a odkaz zanikne a vytvori sa kopia povodneho suboru? To by uz malo logiku.
|
| |
Re: assdff
Od: aqwer
|
Pridané:
3.11.2009 11:00
tiez by som to chapal tak, ze pri editacii suboru na ktory ide viac liniek sa proste vytvori nova kopia....
|
| |
Re: assdff
Od reg.: cinko
|
Pridané:
3.11.2009 11:10
zjavne mate problem pochopit ze ked editujes subor tak sa nebudu menit data na disku ale odkazy na bloky... ak zmenis subor test.txt ktory pozostava z blokov 1465,5465,2443248 a 98553 tak v pripade ze ho zmenis tak pokial su tie bloky vyuzivane inymi subormi tak tie bloky nezmaze ale pouzije ine existujuce bloky (pokial hash sedi) a pripadne ak potrebuje vytvori nove. takze po ulozeni test.txt sa bloky 1465,5465,2443248 a 98553 nezmenia ale test.txt uz bude odkazovat na bloky 1465, 16541,11792198, 1403249 a 666 ;)
|
| |
Re: assdff
Od: Kveri_
|
Pridané:
3.11.2009 20:17
nechapes, mas subor A, ktory ma bloky 1 a 2, mas subor B, ktory ma bloky 3 a 4, zrazu ZFS zisti, ze blok 2 = 4 potom linkne blok 4 na blok 2 a samozrejme to si zapise. Cize potom ked zmenis blok 2 v subore A, tak sa linka zmaze a pre subor B pouzije sa povodny blok 4. Vsetko chodi ako ma
|
| |
Re: assdff
Od: vykipelakasa
|
Pridané:
4.11.2009 0:31
mam subor na blokoch 1,2. vytvorim novy subor bl. 3,4,5,6, pricom 4=1 a 5=2, cize 4 bude linka na 1 a 5 na 2. a teraz sa mi poskodi medium na bolokoch 1 a 2. stratim subor 1 a prakticky aj subor 2?
|
| |
Re: assdff
Od reg.: cinko
|
Pridané:
4.11.2009 8:47
ZFS kontroluje a vie odhalit data corruption a v pripade ze mas redundantny pool tak ti tie corrupted data vie aj obnovit... data mas tak v bezpeci ako chces. jasne ze nebudes pouzivat na kriticke data najlacnejsi disk bez akehokolvek zalohovania so zapnutym data deduplication nie?
|
| |
Re: assdff
Od reg.: Redakcia DSL.sk
|
Pridané:
3.11.2009 11:03
Samozrejme, že to rozpoznáva. To nepracuje na úrovni súborov ale blokov, z pohľadu ZFS sa blok needituje ale zapisuje zmenený. A ak sa zapisuje zmenený blok, ktorý je použitý aj iným súborom (detekované pomocou počítadla), neprepíše sa ale vytvorí sa jeho kópia, prípadne sa odkáže opäť na iný existujúci rovnaký blok. U ZFS to nie je veľká zmena, keďže ZFS už má podporu copy-on-write.
|
| |
useful
Od reg.: OmeGa
|
Pridané:
3.11.2009 8:50
komicke bude, ked sa bude chciet uvolnit miesto na disku zmazanim dat. vymazete nieco, a miesto sa neuvolni.. o-]
|
| |
Re: useful
Od: lolcat
|
Pridané:
3.11.2009 9:04
uvolni.. par bytov na meno mazaneho fajlu a nejake desriptory...
ale zaujimavejsie bude ze budes mat plny disk a stale kopirovat do aleluja nove a nove veci
|
| |
Re: useful
Od: risototh
|
Pridané:
3.11.2009 12:00
alebo taka statistika:
volume size: 2.0 TB
used: 3.5 TB
free: 1.2 T
:)
to bude bordel. ale inak super ficura. tesim sa na nu, nakolko zfs pouzivam a toto by mi asi pomohlo.
|
| |
Re: useful
Od reg.: roob_
|
Pridané:
3.11.2009 10:31
alebo mas c:/mp3/abc.mp3 a c:/zalohy/abc.mp3 (co je odkaz) a zmazes c:/mp3/abc.mp3 sak ved to mas v zalohach.
|
| |
Re: useful
Od reg.: cinko
|
Pridané:
3.11.2009 11:19
... noa??? zmaze sa HLAVICKA abc.mp3 ktora obsahuje zoznam blokov kde sa ten subor nachadza... samotne BLOKY sa nemazu. to inak nerobi ani ntfs a pokial viem tak vacsina filesystemov maze iba hlavicku a samotne data prepisuje az casom - ked to je potrebne. Predstav si ze by si zmazal dajme tomu 8gb image niecoho a filesystem by chcel vsetky bloky kde sa ten subor nachadzal premazat nulami/nahodnymi datami. Nebolo by to zrovna najrychlejsie ci myslis ze hej?
|
| |
ja to stale vravim
Od reg.: cinko
|
Pridané:
3.11.2009 9:13
napisal som to x krat a este x krat to napisem - ZFS FTW! ;)
|
| |
..........
Od reg.: -nikto-
|
Pridané:
3.11.2009 9:57
pre isty okruh ludi je to uzitocna vec, pre inych je to totalna hovadina. pre ludi, ktori nevedia na disku organizovat veci je to takmer idealne. pre ludi, ktori si robia umyselne zalohy a duplikovane subory kvoli roznym modifikaciam je to len kontraproduktivna vec. ale asi sa to da vypnut...
|
| |
Re: ..........
Od: joe07
|
Pridané:
3.11.2009 10:29
Este by ma zaujimala jedna vec. Niekedy si nakopirujem ten isty subor, aby som ho neskor upravil. Popripade ho mam ako zalohu.
Ako si s tymto budem isty, ze mi to moju kopiu nezmaze, a ked si budem chciet beztrestne nieco upravit v kopii neupravi mi to aj originalny subor??
Bude sa mi v takom pripade ukladat na pozadi kopia originalu?
|
| |
Re: ..........
Od reg.: roob_
|
Pridané:
3.11.2009 10:32
podla mna, ktorukolvek z kopii editujes, tak sa vytvori novy subor.
|
| |
Re: ..........
Od reg.: cinko
|
Pridané:
3.11.2009 17:17
podla mna necitas co sa tu vsade pise...
|
| |
Re: ..........
Od reg.: cinko
|
Pridané:
3.11.2009 17:22
predstav si subor ako vrecusko s cislami schranok ktore dokopy davaju obsah. ak chces vytvorit "kopiu" toho suboru tak do ineho vrecuska das rovnake cisla. A teraz sa rozhodnes "obsah" tej kopie upravit - vytvoris obsah a zistis ktore casti toho obsahu vytvoril uz niekto iny, na tieto casti iba odkazes cislom schranky a tie casti ktore zatial neexistuju das do novych schranok a ich cisla tiez vhodis do "kopie". Tak ti vzniknu 2 vrecuska ktore budu odkazovat na rozne schranky (ale samozrejme je mozne ze niektore schranky budu spolocne) a tvorit budu rozny obsah. Ked sa rozhodnes subor zmazat tak len vysypes tie vrecuska do kosa - obsah ostane stale v schrankach a ak danu schranku nebude pouzivat ziaden "subor" tak ju mozes oznacit ako vhodnu na vymenu obsahu...
viac po lopate to uz vysvetlit neviem
|
| |
Re: ..........
Od reg.: cinko
|
Pridané:
3.11.2009 10:38
a kde v tom vydis problem? spravim
%cp test.py test2.py - tieto subory budu rovnake - ergo budu odkazovat na rovnake bloky
%vim test2.py - spravim upravy, zmenim co potrebujem atd atd a ulozim - tie bloky ktore su stale pre test.py a test2.py spolocne ostanu odkazy zatialco zmenene bloky v test2.py sa zapisu do volnych blokov na disku. nechapem co je na tom kontraproduktivne...
|
| |
45646
Od: 54646
|
Pridané:
3.11.2009 11:08
Problem, ak sa porovnavaju iba kontrolne sucty, su kolizie v kontrolnych suctoch, ktore sa mozu objavit a viest ku strate dat, ktoru si suborovy system vobec nevsimne. Je nutne porovnavat samotne bloky, ak nechce niekto prist tymto sposobom o data, aj ked sanca je velmi mala.
|
| |
Re: 45646
Od reg.: cinko
|
Pridané:
3.11.2009 11:12
pre SHA-2 zatial neboli najdene ziadne kolizie takze toto riziko by nemalo vznikat...
|
| |
Re: 45646
Od: 345345
|
Pridané:
3.11.2009 11:52
Uz z principu mapovania N kombinacii (512B blok dat) na L kombinacii (32B kontrolna suma), pricom L < N, je jasne, ze kolizie musia existovat.
Co nebolo pre SHA-2 objavene je ako ku konkretnym datam a ich SHA-2 hashu najst ine data s rovnakym hashom, co je asi aj tak len otazkou casu.
Dobra otazka v tejto suvislosti je, ci pravdepodobnost kolizie je porovnatelna s pravdepodobnostou zlyhania na HW urovni (chybne zapisane data na disku), a ked ano, tak je to asi jedno.
|
| |
Re: 45646
Od reg.: cinko
|
Pridané:
3.11.2009 11:57
ano ja tomu rozumiem ;) ved preto som napisal zatial. povedal by som ze ta pravdepodobnost je prilis mala na to aby mohla nejak vyznamnejsie ovplyvnovat spolahlivost zapisanych dat.
|
| |
Re: 45646
Od: hulo
|
Pridané:
3.11.2009 11:58
Logikou hashu je reprezentovanie "veľkého" čísla(bloku dát - rádovo kB) "malým" číslom(rádovo B). V takomto prípade nutne existuje viac blokov s rovnakým hashom. Jedinečnosť hashu by bolo možné zaručiť len v prípade, že by bol hash rádovo rovnako veľký ako hashovaný údaj. V takom prípade by ale stratilo hashovanie význam...
|
| |
Re: 45646
Od reg.: cinko
|
Pridané:
3.11.2009 12:02
ano ale cim je velkost hashu vacsia tym je mensia pravdepodobnost kolizie - ako som pisal vyssie - pre sha-256 zatial nebola kolizia najdena ( o jej existencii sa ale neda pochybovat )
|
| |
Re: 45646
Od reg.: x x l l
|
Pridané:
3.11.2009 18:24
Tu ale vobec nejde o to, ci bola najdena matematicka metoda na vyrobu kolizie. Ulohou FS je ukladat data a nie hladat kolizie:D Navyse, napriklad taky 2TB filesystem je povedal by som ich prirodzeny generator:D Iba skutocny hazarder, si ponecha na citlive data overovanie iba na zaklade hashu...
|
| |
Re: 45646
Od reg.: cinko
|
Pridané:
3.11.2009 18:31
hovorim o tom ze xy ludi sa snazilo hladat kolizie danej funkcie a zatial ju nenasli... a mily moj hlavne si uvedom ze 2TB filesystem nieje 2TB blok, bloky su podstatne mensie. u zfs to je tusim max 128kbytov - na takomto priestore je sanca vzniku kolidujuceho hashu podstatne nizsia...
|
| |
Re: 45646
Od reg.: cinko
|
Pridané:
3.11.2009 12:04
jo a principialne pri hashovani sa snazis do "premennej"(hash) s konecnym mnozstvom hodnot premietnut v podstate "nekonecnu" mnozinu vstupnych dat...
|
| |
Re: 45646
Od: intact
|
Pridané:
3.11.2009 14:07
Dá sa tam nastaviť, aby sa pri rovnakom hash vykonala aj kontrola, či tie bloky naozaj obsahujú totožné údaje (hlavne pri tej funkcii Fletcher-4 je to potrebné, pri iných hash funkciách to potrebné nemusí byť).
|
| |
Re: 45646
Od: 34535
|
Pridané:
3.11.2009 14:53
Ano, tak nejako si predstavujem idealne riesenie.
|
| |
Pre lamy
Od: vadimosk
|
Pridané:
3.11.2009 11:15
Vysvetlenie pre lamy:
Nerobi sa duplicita suborov, ale blokov!
Príklad:
Subor ABC sa sklada z blokov 00000000 11111111 11101010
Subor DEF sa sklada z blokov 00000000 11111111 01101110
Výsledk na disku pre DEF : linkABC1 linkABC2 01101110
Co z toho vypliva? Pri ukladani suboru DEF sa na disku najdu take iste bloky a ak sa najdu tak sa len prelinkuju.
Chcem zmazat ABC subor? Ok. Zmazem neprelinkovane veci tj. 11101010. Este pochopte, ze link nie je linkovany na nazov suboru, ale na poziciu na disku.
A vy BFU sa o ine veci nestarate, fungujete normalne, nezaujimate sa co robi spodna vrstva filesystemu.
|
| |
Re: Pre lamy
Od reg.: yanick
|
Pridané:
3.11.2009 17:12
A ako vyriesili, ked mnozstvo zmien v subore je vacsie ako mnozstvo volneho miesta na disku? Proste zmeny sa nemaju kam prelinkovat, nasleduje revert a chyba alebo len chyba?
|
| |
Re: Pre lamy
Od reg.: x x l l
|
Pridané:
3.11.2009 18:31
To je pravda, ze v case ked aplikacia zapisuje blok, nie je este jasne, ci je pren dostatok miesta. Ale teoreticky staci mat rezervu pre jeden blok a nasledne alokaciu dalsieho uz nedovolit (a nastane chyba - device is full)
|
| |
zettabyte file system
Od: _evo
|
Pridané:
3.11.2009 13:42
Mensia oprava, ZFS uz oficialne nie je skratka Zettabyte Filesystem ale samotny nazov pokial viem..
Pekna featura, ale keby radsej konecne spravili nejaky softwer na obnovu dat z rozbiteho ZFS poolu, uz rok mi tu nanho caka jeden disk..
|
| |
Re: zettabyte file system
Od: BIgLama-nepr
|
Pridané:
3.11.2009 17:01
Ja cakam na Duke Nukem Forever, ale asi budem Waiting Forever :D
|
| |
Re: zettabyte file system
Od reg.: yanick
|
Pridané:
3.11.2009 17:15
Aj ja cakam, ale bude akcia, budu ho zadarmo davat k MS Office 2010 pre linux :-D
|
| |
Re: zettabyte file system
Od reg.: cinko
|
Pridané:
3.11.2009 17:24
:)) pokial si pamatam tak prvy trailer bol este niekedy v 1997... minimalne 3 zmeny enginu (tusim quake2,unreal,quake3 a mozno este dalej) a tusim ze vyvoj bol uz pozastaveny...
|
| |
Hmmmm
Od reg.: yanick
|
Pridané:
3.11.2009 16:53
Mam particiu a na nej 2 virtualne pocitace a totoznymi virtualnymi diskami (2 kopie), kazda ma 10GB a na disku mam volnych 5GB. Co sa stane, ak 1 z tychto 2 virtualnych pocitacov pustim? Disk plny a data v prdeli, ci data v prdeli a disk plny? :-)
|
| |
Re: Hmmmm
Od reg.: yanick
|
Pridané:
3.11.2009 17:04
Beriem s5, toto [1] som si precital az teraz a prehliadol som, ze ide o bloky, nie o subory :-)
[1] Prispevok:
Pre lamy
Od: vadimosk | Pridané: 3.11.2009 11:15
|
| |
Re: Hmmmm
Od reg.: uname -a
|
Pridané:
4.11.2009 4:23
nabuduce staci citat pozornejsie aj samotny clanok :)
|