https://openpyxl.readthedocs.io/en/stable/index.html
https://ybworld.tistory.com/102
https://ybworld.tistory.com/24
https://ybworld.tistory.com/124?category=936724 추천
https://book.coalastudy.com/data-crawling/week-5/stage-2
https://stackoverflow.com/questions/39574991/how-to-detect-merged-cells-in-an-excel-sheet -> merged cell 찾기
cell = sheet.cell(row=15, column=14)
if type(cell).__name__ == 'MergedCell':
print("Oh no, the cell is merged!")
else:
print("This cell is not merged.")
To "unmerge" all cells you can use the function unmerge_cells
for items in sorted(sheet.merged_cell_ranges):
print(items)
sheet.unmerge_cells(str(items))
-------------------------------------------------------------
이미지 사이즈 일괄 변경 및 자르기
https://youbidan.tistory.com/19
https://juicybrainjello.blogspot.com/2018/06/python-opencv-matchingtemplate.html è 추천
https://iagreebut.tistory.com/77 추천
https://brunch.co.kr/@princox/180
---------------------------------------------------------------------------------------------------------
괜찮은 사이트
https://www.guru99.com/upload-download-file-selenium-webdriver.html
WebElement filepath = driver.findElement(By.id("fileUploadId"));
filepath.sendKeys("C:/TextFile1.txt \n C:/TextFile2.txt \n C:/TextFile3.txt");
You can create a String which contain all paths of files
String pathf1 = "...\f1.txt";
String pathf2 = "...\f2.txt";
String pathf3 = "...\f3.txt";
String allF = pathf1 + " \n " + pathf2 + " \n " + pathf3;
And send this String with sendKeys(allF); to your <input>.
I tested on ChromeDriver with an <input type = "file" multiple> and for me worked.
-----------------------------------------------------------------------
import requests
from bs4 import BeautifulSoup
def crawling(soup) :
reviews = {1: 0, 2: 0, 3: 0, 4: 0}
# 웹 페이지 내 모든 상품의 평점을 reviews 변수에 딕셔너리 형태로 저장하세요.
tt = soup.find("div", class_= 'col-md-9')
#print(tt)
for n in range(1,5):
for review in tt.find_all("p", {"data-rating" : n}):
reviews[n] += 1
#print(reviews)
return reviews
def crawling(soup) :
reviews = {1: 0, 2: 0, 3: 0, 4: 0}
# 웹 페이지 내 모든 상품의 평점을 reviews 변수에 딕셔너리 형태로 저장하세요.
for review in soup.find_all("div", class_="ratings") :
stars = review.find_all("p")
reviews[int(stars[1]["data-rating"])] += 1
return reviews
-------------------------------------------------
def crawling(html) :
prices = []
# 웹 페이지 내 Computers / Tablets에 있는 모든 상품의 가격을 prices 변수에 리스트 형태로 저장하세요.
tt = html.find("div", class_="container test-site")
tt1 = tt.find_all("h4", class_='pull-right price')
for tt2 in tt1:
tt3 = float(tt2.get_text().replace('$',''))
#print(type(tt3))
prices.append(tt3)
return prices
def crawling(html) :
prices = []
# 웹 페이지 내 Computers / Tablets에 있는 모든 상품의 가격을 prices 변수에 리스트 형태로 저장하세요.
for price in html.find_all("h4", class_="pull-right price"):
prices.append(float(price.get_text()[1:]))
return prices
파이썬 설명 사이트
https://www.sqler.com/Python_Open_Source_developer
소스코드
http://sourcenav.sourceforge.net/
무료 FTP hosting
파이썬 음성 to text
'Python' 카테고리의 다른 글
크롤링 checkbox 선택 및 해제 확인 하기 (1) | 2023.02.02 |
---|---|
Python selenium element finding ways (0) | 2023.01.25 |
정규식 연습하기 좋은 사이트 (1) | 2022.12.12 |
pandas index 반환 (1) | 2022.07.30 |
Python .exe 실행 파일 만들기 (2) | 2022.07.03 |
댓글