mport os
import re
import time
import facebook
import requests
import configparser
import urllib.request
import pandas as pd
from PIL import Image
from bs4 import BeautifulSoup
from datetime import datetime
from google.colab import drive
... (중략)
def write_csv(df):
savename = CSV_URI+'platum.csv'
tmp = []
tmp = savename.split('/')
tmp2 = tmp[len(tmp)-1]
if os.path.exists(savename):
print('Add data', tmp2)
df_read = pd.read_csv(savename, header=None)
last_row = df_read.tail(1)
csv_seq = last_row.iloc[:,0]
result = compare_seq(int(csv_seq.values[0]),int(df['seq'].values[0]))
else :
print('Make file', tmp2)
result = 0
if result:
print('Overlap contents!!!')
else:
df.to_csv(savename, header=False, index=False, mode='a', encoding='utf-8-sig')
return result
... (중략)
url = 'https://platum.kr'
resp = requests.get(url)
soup = BeautifulSoup(resp.text, 'lxml')
scrappy(soup)
(소스는 아래의 사이트에 공유했습니다)
'Python' 카테고리의 다른 글
구글코랩) 안전Dream 실종아동 등 검색 오픈API 소스를 공유합니다. (구글드라이브연동, 이미지 수집 소스) (0) | 2020.08.13 |
---|---|
(구글코랩) COVID-19 실시간 상황 수치 데이터를 MySQL 연동 소스를 공유합니다. (0) | 2020.08.12 |
파이썬, 구글 코랩, 코로나 크롤링, 스크래핑, 시도별 확진자 현황 (0) | 2020.08.08 |
윈도우10 파이썬 작업 스케줄러 설정하기 (0) | 2020.06.10 |
파이썬 부산창조경제혁신센터,알림마당,사업공고 크롤링 소스를 공개합니다. (0) | 2018.06.09 |