Importare un database di grosse dimensioni con SQLDump Splitter

Importare un database di grosse dimensioni con SQLDump Splitter

Vi è mai capitato di dover importare un database MySQL di grosse dimensioni e di avere problemi con i tempi di caricamento, la pesantezza e via dicendo?
A me capita molto spesso quando lavoro in locale, soprattutto con Xampp, che il caricamento vada in timeout e si interrompa a metà dell’opera, costringendomi a ricominciare daccapo.

In questi casi, con una buona connessione, è sufficiente modificare il file php.ini aumentando il valore alla riga upload_max_filesize.
In altri casi ciò non basta, e la soluzione può essere un’altra: dividere il dump del database in più file, da caricare uno per volta durante l’importazione.

Per fare ciò, vi propongo questo programmino un po’ datato ma ancora molto efficace: SQLDump Splitter.

sql dump splitter interfaccia

Come funziona?

Si tratta di un leggerissimo eseguibile che, una volta avviato, permette di selezionare il database da splittare e di salvare i vari file in una cartella a scelta dell’utente.
A questo punto, sarà sufficiente caricare i singoli file per ricostruire il database completo.
N.B: consiglio comunque di partire dal primo file della struttura, che si chiamerà in modo simile a db_DataStructure.

Clicca qui per scaricare SQLDump Splitter 2 v. 1.0 »

E voi, conoscevate questo programma? Lo utilizzate o preferite affidarvi ad altro?

Related Posts