일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
- className
- setItem
- 도린이
- 독립변수
- javascript
- classList
- 도트
- intervals
- click
- 2D
- 웹스크래핑
- 탑다운
- 자주 사용하는 Quaternion 함수
- 회전
- Lerp
- PYTHON
- wsl
- getItem
- 픽셀
- 종속변수
- 연습
- vsCode
- topdown
- Unity
- jQuery
- Event
- addEventListener
- Quaternion
- 코딩
- euler
- Today
- Total
목록웹스크래핑 (5)
쫑가 과정
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/b3wT3W/btq7iP6pXfC/bqrdfci9UO2GTzvKJOIrk1/img.png)
2021.06.14 - [초심자의 기억/파이선_정보취합하기] - 다시 해보는 웹 스크래핑 가상환경 세팅 (1.VSCode에 WSL연동) 0. 시작 전 Linux 배포 (Ubuntu) 업데이트 VSCode를 실행시키고 좌측 하단에서 WSL과 연동되어 있는지 확인 먼저 한다. 최신 패키지를 유지하기 위해 설치 직후를 포함하여 Linux 배포를 정기적으로 업데이트하는 것이 좋다. 이 업데이트는 Windows에서 자동으로 처리하지 않는다. Linux 배포(Ubuntu)를 업데이트하려면 VSCode Terminal에서 아래 명령을 입력 Terminal은 Ctrl + ` 로 킬수 있다. sudo apt update && sudo apt upgrade 아래 명령을 사용하여 버전과 코드 이름을 확인할 수 있다. lsb..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bcucLm/btq7kkw4Rq2/gEsuST8UDkv8yyjXzUpv40/img.png)
2021.04.29 - [초심자의 기억/파이선_정보취합하기] - 1주차_윈도우 Visual Studio Code에 가상환경 설정! 1주차_윈도우 Visual Studio Code에 가상환경 설정! 주의사항 : 초심자가 진행한 기록물입니다. 당연히 전문적 지식은 없고 교육 중 또는 검색을 통해 따라 했을 뿐입니다. 하지만 그 따라 하는 과정도 쉽지 않았기에 남깁니다. 1. 파이선(Python) 설 jjong-ga.tistory.com 시간이 지나 다시 보니 무슨 말인지 모르겠어서 다시 다 삭제하고 처음부터 설치해본다. 0. 삭제 python제거 vscode, ubuntu프로그램 제거에서 제거 혹시 몰라서 PowerShell을 이용해 확인 사살. https://positivemh.tistory.com/584..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bTPJhj/btq53ky6bsD/Ck09R7A8uXqanwVrgBKVKK/img.jpg)
코딩의 코자도 모르는 풋내기로 시작해서 이제는 코딩의 ㅋ을 그리는 중이다. 4주차 교육이 끝난지 2주가 훨씬 지났지만 이제야 글을 다 올렸다. 아무것도 모르는 상태에서 따라만 하는 교육이었기에 블로그에 올릴 지식 자체가 없었다. 교육들을 복습하면서 궁금한 부분들을 하나하나 검색하고 정리하다보니 시간이 오래걸렸다. 누군가에게 도움이 되길 바라며 작성하다보니 하나하나 더 이해하기 쉽게 작성하려고 한것도 더 많은 정보를 검색하게 만들었다. 사실 올린다는 면목으로 제일 도움을 많이 받은 사람은 나일것이다. 내가 알게된 정보들을 다른 사람들에게 알려준다는 건 그 이상으로 더 많은 지식을 가지고 있어야 한다. 내가 쓴 글들을 되집어봐도 정말 형편없지만 이건 이 그대로 놔두고 하나의 과정으로 바라봐줬으면 한다.
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/tmvKh/btq4z11BL3w/N8tSAl9uJLeg6eAsU7IiNK/img.png)
저번에 했던 분석을 토대로 실전을 해보자! 1. 쿠팡 기본적인 시작을 써준다. 웹페이지에 들어갈 url을 찾아오자 나는 고양이를 검색해서 나온 리스트를 가지고 오고 싶다! import requests from bs4 import BeautifulSoup #고양이를 검색해 나온 url webpage = requests.get("https://www.coupang.com/np/search?component=&q=%EA%B3%A0%EC%96%91%EC%9D%B4&channel=user") soup = BeautifulSoup(webpage.content, "html.parser") getItem = soup.select("ul#productList li") # 이런식으로 크롤링이 안되는 경우에는 위에서 부터 ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/0eqZc/btq4f0ohAgC/EEv2qkLdhbKM1KiV0mraH0/img.png)
주의사항 : 초심자가 진행한 기록물입니다. 당연히 전문적 지식은 없고 교육 중 또는 검색을 통해 따라 했을 뿐입니다. 하지만 그 따라 하는 과정도 쉽지 않았기에 남깁니다. 0. 알고 가자! 크롤링?? 처음부터 크롤링이라고 하길래 정보 모으는 게 크롤링이거니 생각했다. 그러다 재밌는 글을 발견! velog.io/@mowinckel/%EC%9B%B9-%ED%81%AC%EB%A1%A4%EB%A7%81-I 🖨 '웹 크롤러' 좀 그만 만들어라 아무튼 그만 만들어라. velog.io 글에 빨려 들어갈 듯이 잘 쓰셨다. 읽고 나니 제대로 구분부터 해야겠다고 생각이 들었다. 98yejin.github.io/2020-11-02-crawling-vs-scraping/ 웹 크롤링과 웹 스크래핑의 차이점 crawling, s..