Вопрос пользователя:
Ответ нейросети:
import requests from bs4 import BeautifulSoup import concurrent.futures
def get_links(url): response = requests.get(url) soup = BeautifulSoup(response.content, 'html.parser') links = [] for link in soup.find_all('a'): href = link.get('href') if href and not href.startswith('#') and 'skillbox.ru' in href: links.append(href) return links
def write_links_to_file(url, level, max_level, file): if level > max_level: return links = get_links(url) with open(file, 'a') as f: for link in links: f.write('\t'*level + link + '\n') write_links_to_file(link, level+1, max_level, file)
if name == 'main': url = 'https://skillbox.ru' max_level = 2 file = 'links.txt'
with concurrent.futures.ThreadPoolExecutor() as executor:
executor.submit(write_links_to_file, url, 0, max_level, file)
Напишите нам, если в вопросе есть ваши персональные данные ([email protected])
Обратите внимание: ответы, предоставляемые искусственным интеллектом, могут не всегда быть точными. Не рассчитывайте на них в критически важных областях, таких как медицина, юриспруденция, финансы или в вопросах, связанных с безопасностью. Для важных решений всегда обращайтесь к квалифицированным специалистам. Администрация сайта не несет ответственности за контент, сгенерированный автоматически.