반응형
엑셀 파일에 데이터를 저장하려면 openpyxl 라이브러리를 사용할 수 있습니다.
from openpyxl import Workbook
# Set up Excel workbook
wb = Workbook()
ws = wb.active
ws.append(["ASIN", "Title", "Brand", "Amazon Choice", "Star Rating", "Rating Count", "Rufus Question #2", "Coupon Discount", "Scrape Time"])
Workbook()을 사용하여 새로운 엑셀 파일을 생성하고, ws = wb.active로 활성 시트를 가져옵니다. ws.append()를 사용하여 첫 번째 행에 컬럼 헤더를 추가합니다. 이 헤더는 나중에 스크래핑한 데이터를 엑셀에 삽입할 때 참조되는 열 이름이 됩니다.
for i, url in enumerate(product_urls, start=1):
print(f"Scraping link {i}...")
product_data = scrape_amazon_product(url)
ws.append(product_data)
print(f"Scraped: {product_data}")
enumerate(product_urls, start=1)는 product_urls 리스트에 있는 URL을 순차적으로 처리합니다. product_data는 스크래핑된 데이터를 담고 있으며, ws.append(product_data)로 그 데이터를 Excel 시트에 추가합니다.
wb.save("amazon_data.xlsx")
print("Data saved to amazon_data.xlsx")
스크래핑이 끝난 후, wb.save("amazon_data.xlsx")로 Excel 파일에 저장합니다.
driver.quit()
driver.quit()은 웹 드라이버를 종료하는 명령어입니다. 웹 스크래핑을 마친 후, 리소스를 정리하기 위해 드라이버를 종료해야 합니다.
수고하셨습니다!
반응형
'Computer Science > Project' 카테고리의 다른 글
파이썬 프로젝트 (아마존 웹사이트 웹 스크래핑) 6 | Selenium으로 제품 정보 수집하기 (2) (0) | 2025.03.21 |
---|---|
파이썬 프로젝트 (아마존 웹사이트 웹 스크래핑) 5 | Selenium으로 제품 정보 수집하기 (1) (0) | 2025.03.20 |
파이썬 프로젝트 (아마존 웹사이트 웹 스크래핑) 4 | Selenium을 사용하여 아마존 로그인 자동화하기 (0) | 2025.03.19 |
파이썬 프로젝트 (아마존 웹사이트 웹 스크래핑) 3 | 크롬 옵션 설정 (0) | 2025.03.18 |
파이썬 프로젝트 (아마존 웹사이트 웹 스크래핑) 2 | 프로젝트 개요, Selenium (0) | 2025.03.17 |