मैंने एक कोड बनाया है जो मेरी वेबसाइट के ब्लॉग से जानकारी निकालता है (वे यूआरएल एक्सेल फाइल में हैं इसलिए मैं उन्हें वहां से खींचता हूं)। मैं चाहता हूं कि मेरे द्वारा निकाली गई प्रत्येक यूआरएल जानकारी एक अलग .txt फाइलों में रहे (अभी तक मैं केवल 1 में ही उन्हें प्राप्त करने में कामयाब रहा)। मैं वह कैसे कर सकता हूं? मुझे नहीं पता कि कहां से शुरू करना है, मैं यहां बहुत खो गया हूं :( किसी भी मदद की सराहना की जाएगी।

import urllib
from bs4 import BeautifulSoup
import pandas as pd
import time

i = []

crawl = pd.read_excel('C:/Users/Acer/Desktop/internal_all2.xlsx') 
addresses = crawl['Address'].tolist() 

for row in addresses:
    url = row
    time.sleep(5)
    response = urllib.request.urlopen(url)
    soup = BeautifulSoup(response, 'html.parser')
    content = soup.find_all('p')
    
    for content2 in content:
        print(url, content2)
        i.append([url,content2])
        
    df = pd.DataFrame(i)
    df.to_csv('C:/Users/Acer/Desktop/scripts/content/test.txt', index=False)
0
Jonas 30 अक्टूबर 2020, 14:55

1 उत्तर

सबसे बढ़िया उत्तर

फ़ाइल नाम में बस एक स्ट्रिंग संलग्न करें:

import urllib
from bs4 import BeautifulSoup
import pandas as pd
import time

i = []

crawl = pd.read_excel('C:/Users/Acer/Desktop/internal_all2.xlsx') 
addresses = crawl['Address'].tolist() 

for row in addresses:
    url = row
    time.sleep(5)
    response = urllib.request.urlopen(url)
    soup = BeautifulSoup(response, 'html.parser')
    content = soup.find_all('p')
    
    for content2 in content:
        print(url, content2)
        i.append([url,content2])
        
    df = pd.DataFrame(i)
    df.to_csv(f'C:/Users/Acer/Desktop/scripts/content/test_{url}.txt', index=False)

1
Advay168 30 अक्टूबर 2020, 11:57