Pár set duplicitních logů
#1
Publikováno 03 leden 2012 - 17:21
Trápí mne ale úplně jiná věc. Přestože databáze je původní a pouze jsem na základě šablony Template.tabmenu.cz stvořil svou verzi http://kiregps.sweb....e.tabmenu.cz.my, statistika obsahuje 2253 nálezů místo správných 1942. Přitom původní template (http://kiregps.sweb..../Template.en.my) nad stejnými daty dává správný výsledek, i spuštěcí BAT je (až na jméno šablony) identický.
Zkoumal jsem GeoGet, který vytrvale ukazuje správné počty keší (těch 1952 ks je součet 1942 nalezených a 10 vlastních, zbylá vlastní je adoptovaná a tedy dříve zároveň nalezená):
Databáze tedy obsahuje duplicitní logy. Potvrzeno u starších keší, kde je to vidět i v náhledu listingu:
Nevím, jak se to stalo. Pravdou je, že jsem databázi aktualizoval různě, občas i pomocí GeoJarry. Divné je, že se starou šablonou se duplicity nepočítají a že nelze sjednat nápravu doporučeným postupem (Databázové nástroje - Oprava databáze - Odstranění zapomenutých záznamů).
Než začnu psát nějaké zoufalé skripty, prosím o radu a pomoc. Přece si nebudu nahánět body tímto způsobem.
Předem díky...!
P.S.
Když už jsem v těch dotazech. Poradí mi někdo, jak do tabulky FTF dostat pořadové číslo FTF (ne tedy standardně zobrazované pořadové číslo nalezené kešky)?
#2
Publikováno 03 leden 2012 - 17:28
#3
Publikováno 03 leden 2012 - 17:30
HaLuMa napsal/a:
Duplicitni logy bude asi nejaky historicky problem, treba kdysi importovana data v dobe, kdy blblo nejake parsovani webu. Kdyz se totiz nepodarilo zjistit spravne ID logu, tak se nedokazalo poznat, ze tam ten log uz je.
Kazdopadne dobra pripominka, zrovna pisu ruzne opravne skriptiky, tak zkusim vyrobit i opravu na toto.
Předem moc děkuji. Opravdu nerad bych se uchyloval zpátky ke slepenci. GeoGet je totiž skvělej nástroj. Velké díky za něj...!
Btw - proč to proboha se starou šablonou nedělá...?!? Vznik duplicit si dovedu snadno představit, ale tohle mi rozum nebere.
#4
Publikováno 03 leden 2012 - 17:53
#5
Publikováno 03 leden 2012 - 18:00
rsc_cz napsal/a:
Nebylo by nejjednodušší všechny logy u nalezených cachešek smazat a ty vaše doplnit přes MFPQ?
Klidně. Jen jsem nenašel mazání logů v menu. Musím skriptíkem...?!?
Šlo by taky vytvořit celou db znovu, ale to bych potřeboval vysypat tag FTF a pak do čerstvé znovu nahrát. Ručně by se mi to dělat nechtělo...:DB)
#6
Publikováno 03 leden 2012 - 18:28
#7
Publikováno 03 leden 2012 - 18:32
#8
Publikováno 03 leden 2012 - 18:34
LudaL napsal/a:
Mám dojem, že mě to dělalo taky a zjistil jsem, že je novější template nějaké přepínátko, které ty duplicitní potom odstraňuje. Ale je popsané nějak nezrozumitelně, zkus ty template porovnat. Nebo dělá něco jiného a tohle byl jen vedlejší efekt.
Srovnával jsem, srovnával. Pokud tam je, je popsané hodně nesrozumitelně...
EDIT:
Do příkazu START se template liší jen v direktivě OWNERID 1449804 kiReGPS, kterou jsem ale doplňoval v rámci boje o správný výsledek.
#9
Publikováno 03 leden 2012 - 19:27
rsc_cz napsal/a:
Nebylo by nejjednodušší všechny logy u nalezených cachešek smazat a ty vaše doplnit přes MFPQ?
Nebylo. Tim bys opravil jen svoje nalezene kesky ale vsechny ostatni ne. Polovicate reseni.
jednoduzsi a mnohem rychlejsi bude prolitnout vsechny logy v databazi a pripadne zmetky smazat. Neni lepsi si pockat na toto ciste reseni?
#10
Publikováno 03 leden 2012 - 19:47
LudaL napsal/a:
...EDIT: Zkus dát SORTFOUNDBY time. Když tam je all, tak to myslím počítá i ty duplicitní logy. Ale už si tím nejsem jistý, je to přes rok co jsem to řešil.
Šikulka! Díky! Pomohlo! Sortuje podle času a tím se potlačí duplicity se stejným časem. Možná na hustý powertraily to bude problém, ale tady to provizorně pomáhá.
EDIT: Navíc se takhle statistika generuje 10x rychleji...!
Díky samozřejmě i HaLuMovi za finální opravu, která nebude závislá na duchařských vedlejších efektech třídění.
#11
Publikováno 03 leden 2012 - 22:50
HaLuMa napsal/a:
Kazdopadne dobra pripominka, zrovna pisu ruzne opravne skriptiky, tak zkusim vyrobit i opravu na toto.
Tak, v priloze by mel byt maly plugin, ktery probehne vsechny logy v databazi, a smaze ty logy, ktere maji prazdne, nebo vadne ID logu.
To by melo smazat vsechny pripadne duplicity. Pokud i tak nejaka duplicita zustane, pak je ten log v databazi skutecne dvakrat s ruznymi ID a velmi pravdepodobne se skutecne jedna o rozdilne logy.
#12
Publikováno 04 leden 2012 - 0:10
HaLuMa napsal/a:
HaLuMa napsal/a:
Kazdopadne dobra pripominka, zrovna pisu ruzne opravne skriptiky, tak zkusim vyrobit i opravu na toto.
Tak, v priloze by mel byt maly plugin, ktery probehne vsechny logy v databazi, a smaze ty logy, ktere maji prazdne, nebo vadne ID logu.
To by melo smazat vsechny pripadne duplicity. Pokud i tak nejaka duplicita zustane, pak je ten log v databazi skutecne dvakrat s ruznymi ID a velmi pravdepodobne se skutecne jedna o rozdilne logy.
Jejej, to byl fofr...! Velký díky. Jen mne prosím lehce pošťouchni, jak to spustit. Nakopíroval jsem do data/script, ale ať hledám jak hledám...
EDIT: Ufff, už jsem to našel. Minutu po napsání logu...
Odstranil 1077 logů...
Chachááá. A je to špíglglanc, jak u nás řikáme...!
Ještě jednou velký díky a poklona za rychlost!
0 uživatel(ů) prochází toto téma
0 uživatelů, 0 návštěvníků 0 anonymních uživatelů