일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
- Lerp
- 독립변수
- Unity
- 웹스크래핑
- jQuery
- 탑다운
- 픽셀
- addEventListener
- Event
- 2D
- 종속변수
- 도린이
- 코딩
- Quaternion
- 연습
- 도트
- classList
- vsCode
- javascript
- className
- intervals
- setItem
- 자주 사용하는 Quaternion 함수
- click
- topdown
- PYTHON
- 회전
- getItem
- wsl
- euler
- Today
- Total
목록쿠팡 (2)
쫑가 과정
2021.05.13 - [초심자의 기억/파이선_정보취합하기] - 2주차 연습 - 쿠팡 웹스크래핑 2주차 연습 - 쿠팡 웹스크래핑 저번에 했던 분석을 토대로 실전을 해보자! 1. 쿠팡 기본적인 시작을 써준다. 웹페이지에 들어갈 url을 찾아오자 나는 고양이를 검색해서 나온 리스트를 가지고 오고 싶다! import requests from bs4 impor jjong-ga.tistory.com 지난 번에 만든 쿠팡 수집을 엑셀로 옮겨보자! 필요한 것 pandas module 이유 Pandas의 DataFrame : 열과 행으로 구성된 엑셀 표와 같은 구조를 가진다. pandas? https://www.cbtnuggets.com/blog/certifications/microsoft/why-pandas-is-a..

저번에 했던 분석을 토대로 실전을 해보자! 1. 쿠팡 기본적인 시작을 써준다. 웹페이지에 들어갈 url을 찾아오자 나는 고양이를 검색해서 나온 리스트를 가지고 오고 싶다! import requests from bs4 import BeautifulSoup #고양이를 검색해 나온 url webpage = requests.get("https://www.coupang.com/np/search?component=&q=%EA%B3%A0%EC%96%91%EC%9D%B4&channel=user") soup = BeautifulSoup(webpage.content, "html.parser") getItem = soup.select("ul#productList li") # 이런식으로 크롤링이 안되는 경우에는 위에서 부터 ..