כיצד ניתן להוריד אתר אינטרנט שלם?
אתה לא רק רוצה מאמר או תמונה בודדת, אתה רוצה את זה כולו אתר אינטרנט. מהי הדרך הקלה ביותר לשאוב את כל זה?
מפגש השאלות והתשובות של היום מגיע אלינו באדיבות SuperUser - חלוקה מחודשת של Stack Exchange, קיבוץ מונחה על ידי הקהילה של אתרי אינטרנט של Q & A.
תמונה זמינה כטפט ב- GoodFon.
השאלה
SuperUser הקורא ג 'ו יש בקשה פשוטה:
כיצד ניתן להוריד את כל הדפים מאתר אינטרנט?
כל פלטפורמה בסדר.
כל דף, ללא יוצא מן הכלל. ג'ו בשליחות.
התשובה
מפיץ SuperUser Axxmasterer מציע המלצת יישום:
http://www.httrack.com/
HTTRACK עובד כמו אלוף להעתקת התוכן של אתר שלם. כלי זה יכול גם לתפוס את החלקים הדרושים כדי להפוך את האתר עם קוד פעיל תוכן עבודה לא מקוון. אני נדהם הדברים זה יכול לשכפל במצב לא מקוון.
תוכנית זו תעשה כל מה שאתה צריך ממנו.
ציד שמח!
אנחנו יכולים recomment HTTRACK בלבביות. זה יישום בוגרת שמקבלת את העבודה. מה לגבי ארכיוניסטים בפלטפורמות שאינן Windows? תורם נוסף, ג'וניק, מציע עוד כלי בוגר ורב עוצמה:
Wget הוא כלי שורת הפקודה הקלאסי עבור סוג זה של משימה. זה מגיע עם רוב מערכות יוניקס / לינוקס, ואתה יכול לקבל את זה גם עבור Windows (חדש 1.13.4 זמין כאן).
היית עושה משהו כמו:
wget -r --no-parent http://site.com/songs/
לקבלת פרטים נוספים, עיין ב Wget Manual ובדוגמאות שלה, או עיין בתצוגה הבאה:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
יש לך משהו להוסיף להסבר? נשמע את ההערות. רוצה לקרוא תשובות נוספות ממשתמשים אחרים בעלי ידע טכנולוגי מתמצא? בדוק את נושא הדיון המלא כאן.