TomCrow 0 Report post Posted August 6, 2004 Hallo! Zum Sichern der db verwende ich Peters Strategien zum BackUp..kurz gesagt funktioniert das so: Aufteilen nach Struktur und Daten, ibf_posts extra und aufgeteilt (je 1000 Datensätze, wegen der Größe). Gibt es eigentlich eine Möglichkeit, diese Methode in phpMyAdmin zu automatisieren, eine Art script laufen zu lassen, oder sowas? Im Moment ist es ja doch ein "ziemliches Geklicke": alle Tabellen mit Ausnahme von ibf_posts auswählen, Struktur auswählen, DROP TABLE, Senden, GZIP, usw. usw. Läßt sich dieses System automatisieren? mfg, Tom Share this post Link to post
Helge 192 Report post Posted August 6, 2004 Per CronJobs z.b. Hast du denn einen eigenen Server? Share this post Link to post
TomCrow 0 Report post Posted August 6, 2004 Hi Rigo! Nein, ich hab' keinen eigenen server.. Den Beitrag über (kostenlose) Cronjobs bzw. ein backup-script hier kenn' ich, aber zum einen blick' ich nicht ganz durch und zum anderen ist mir manches unklar.. Z.B. wenn ich das mit Cronjobs hinbekomme, wo spiele ich dann das backup hin? Auf den webspace? (da bin ich mir dann nicht sicher, ob das so gut ist, denn wenn wirklich was passiert, ist ev. im schlimmsten Fall das backup ja auch weg) Per e-mail schicken? (ich fürcht', früher oder später wird dann das e-mail-Postfach zu klein..ich hab' hier schon gelesen, dass manche eine db von ~40 Mb haben) Und könnte man ein solches script dann so anpassen, dass es die von mir gewünschte Aufteilung beibehält (also Struktur und Daten getrennt, die ibf_posts überhaupt extra und sogar noch aufgeteilt z.B. in Stückchen à 1000 Datensätze, damit's beim Einspielen keine Probs gibt)? Fragen über Fragen.. mfg, Tom Share this post Link to post
ThomasD 0 Report post Posted August 7, 2004 Nimm doch MySQLCommander - damit sind es zwar auch ein paar Einzelklicks, aber es geht schneller und komfortabler als händisch! Grüsse, Tom Share this post Link to post
TomCrow 0 Report post Posted August 7, 2004 Hi ThomasD! Werd' ich mir gleich mal ansehen.. mfg, Tom Share this post Link to post
Andy 0 Report post Posted August 8, 2004 Ich benutze schon seit 2,5 Jahren den Database Mod von Dragoran, und hatte mit dem noch nie irgendwelche Probleme gehabt, ganz gleich wie gross die Datenbank war... weder beim sichern, noch beim einspielen. Das ganze geht auch noch superschnell in wenigen Sekunden, also was will man mehr.... Und Cronjobs braucht man ja nicht unbedingt, wenn man sich angewöhnt einmal in der Woche, oder wegen mir alle 2 Wochen mal einmal eine Sicherung manuell zu Starten, und sich dann den Dump auf die Lokale Festplatte zu sichern ;) Share this post Link to post
TomCrow 0 Report post Posted August 8, 2004 (edited) Hallo Andy! Danke für den Tipp - den kannte ich noch nicht.. Ich glaub' ich werd' das verwenden, denn mit Dragorans Arbeit bin ich bisher immer gut gefahren und Ich benutze schon seit 2,5 Jahren.. ist ja wohl auch ein gutes Argument!! mfg, Tom [edit] Hab' jetzt mal ein backup damit erstellt.. Lässt Du die Einstellungen auf Standard? Rows to do at once? => 800 Gziplevel (1-9): => 1 Edited August 9, 2004 by TomCrow Share this post Link to post