일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |
- 회전
- Quaternion
- 자주 사용하는 Quaternion 함수
- setItem
- javascript
- addEventListener
- 종속변수
- 탑다운
- Lerp
- 2D
- topdown
- jQuery
- className
- 웹스크래핑
- euler
- intervals
- Unity
- PYTHON
- getItem
- Event
- click
- 연습
- wsl
- 픽셀
- 도린이
- vsCode
- 도트
- classList
- 독립변수
- 코딩
- Today
- Total
목록프로그래밍 공부/파이선_정보취합하기 (11)
쫑가 과정
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/b3wT3W/btq7iP6pXfC/bqrdfci9UO2GTzvKJOIrk1/img.png)
2021.06.14 - [초심자의 기억/파이선_정보취합하기] - 다시 해보는 웹 스크래핑 가상환경 세팅 (1.VSCode에 WSL연동) 0. 시작 전 Linux 배포 (Ubuntu) 업데이트 VSCode를 실행시키고 좌측 하단에서 WSL과 연동되어 있는지 확인 먼저 한다. 최신 패키지를 유지하기 위해 설치 직후를 포함하여 Linux 배포를 정기적으로 업데이트하는 것이 좋다. 이 업데이트는 Windows에서 자동으로 처리하지 않는다. Linux 배포(Ubuntu)를 업데이트하려면 VSCode Terminal에서 아래 명령을 입력 Terminal은 Ctrl + ` 로 킬수 있다. sudo apt update && sudo apt upgrade 아래 명령을 사용하여 버전과 코드 이름을 확인할 수 있다. lsb..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bcucLm/btq7kkw4Rq2/gEsuST8UDkv8yyjXzUpv40/img.png)
2021.04.29 - [초심자의 기억/파이선_정보취합하기] - 1주차_윈도우 Visual Studio Code에 가상환경 설정! 1주차_윈도우 Visual Studio Code에 가상환경 설정! 주의사항 : 초심자가 진행한 기록물입니다. 당연히 전문적 지식은 없고 교육 중 또는 검색을 통해 따라 했을 뿐입니다. 하지만 그 따라 하는 과정도 쉽지 않았기에 남깁니다. 1. 파이선(Python) 설 jjong-ga.tistory.com 시간이 지나 다시 보니 무슨 말인지 모르겠어서 다시 다 삭제하고 처음부터 설치해본다. 0. 삭제 python제거 vscode, ubuntu프로그램 제거에서 제거 혹시 몰라서 PowerShell을 이용해 확인 사살. https://positivemh.tistory.com/584..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bTPJhj/btq53ky6bsD/Ck09R7A8uXqanwVrgBKVKK/img.jpg)
코딩의 코자도 모르는 풋내기로 시작해서 이제는 코딩의 ㅋ을 그리는 중이다. 4주차 교육이 끝난지 2주가 훨씬 지났지만 이제야 글을 다 올렸다. 아무것도 모르는 상태에서 따라만 하는 교육이었기에 블로그에 올릴 지식 자체가 없었다. 교육들을 복습하면서 궁금한 부분들을 하나하나 검색하고 정리하다보니 시간이 오래걸렸다. 누군가에게 도움이 되길 바라며 작성하다보니 하나하나 더 이해하기 쉽게 작성하려고 한것도 더 많은 정보를 검색하게 만들었다. 사실 올린다는 면목으로 제일 도움을 많이 받은 사람은 나일것이다. 내가 알게된 정보들을 다른 사람들에게 알려준다는 건 그 이상으로 더 많은 지식을 가지고 있어야 한다. 내가 쓴 글들을 되집어봐도 정말 형편없지만 이건 이 그대로 놔두고 하나의 과정으로 바라봐줬으면 한다.
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cSFH9R/btq5Y8tmmjx/JT1YDlkdxVKYhbriWyqNp0/img.png)
물건 정보 수집을 해봤으니 이제 트렌드 파악을 위한 인스타그램 정보를 수집해보자 작동 방법은 일반적으로 마우스와 키보드를 이용해 웹에서 접속하는 방식을 사용할 거다. 로그인화면 -> id,pw 입력 후 로그인 -> 원하는 #해시태그 검색 -> 검색 결과에서 원하는 정보 수집하기 준비물 wsl, virtualenv 가상 환경 beautifulsoup pandas selenium driver VcXsrv lxml Selenium Selenium이 뭔지 본문으로 가서 보자 https://www.selenium.dev/documentation/en/introduction/the_selenium_project_and_tools/ The Selenium project and tools :: Documentation..
2021.05.13 - [초심자의 기억/파이선_정보취합하기] - 2주차 연습 - 쿠팡 웹스크래핑 2주차 연습 - 쿠팡 웹스크래핑 저번에 했던 분석을 토대로 실전을 해보자! 1. 쿠팡 기본적인 시작을 써준다. 웹페이지에 들어갈 url을 찾아오자 나는 고양이를 검색해서 나온 리스트를 가지고 오고 싶다! import requests from bs4 impor jjong-ga.tistory.com 지난 번에 만든 쿠팡 수집을 엑셀로 옮겨보자! 필요한 것 pandas module 이유 Pandas의 DataFrame : 열과 행으로 구성된 엑셀 표와 같은 구조를 가진다. pandas? https://www.cbtnuggets.com/blog/certifications/microsoft/why-pandas-is-a..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/AORqW/btq5ael8PIW/h7Qr7t66AJUqKnVyjjneck/img.png)
https://docs.python.org/3/library/stdtypes.html#numeric-types-int-float-complex Built-in Types — Python 3.9.5 documentation The following sections describe the standard types that are built into the interpreter. The principal built-in types are numerics, sequences, mappings, classes, instances and exceptions. Some collection classes are mutable. The methods that add, subtract, docs.python.org pl..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/t1eFj/btq4RNoOvv5/0rXdCbWkscU4UrsSE25qN0/img.png)
목차 [python] [variable] [sequence type] 1.list 2.tuple 3.dictionary [functions] 1.bulit-in 2.creating python 3.return 4.argument 5.if -else, elif 6.for in [module] Python? 세계에서 인기 있는 프로그래밍 언어 중 하나 1. 초보자 이해하기 아주 쉬운데 전문가도 계속 파이썬 사용 자동화, 데이터 얻고 정리, 도큐먼트 압축 데이터베이스 migrate, 유튜브 비디오 다운 오디오 압축 이미지 폴더 옮길 때 등 아주 많이 사용 가능 Google, dropbox, Youtube, Reddit, NASA 등 다 파이썬 사용 2. 아름다움과 강력함 사이의 조화가 좋아 읽기 굉장히 쉽게 ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/tmvKh/btq4z11BL3w/N8tSAl9uJLeg6eAsU7IiNK/img.png)
저번에 했던 분석을 토대로 실전을 해보자! 1. 쿠팡 기본적인 시작을 써준다. 웹페이지에 들어갈 url을 찾아오자 나는 고양이를 검색해서 나온 리스트를 가지고 오고 싶다! import requests from bs4 import BeautifulSoup #고양이를 검색해 나온 url webpage = requests.get("https://www.coupang.com/np/search?component=&q=%EA%B3%A0%EC%96%91%EC%9D%B4&channel=user") soup = BeautifulSoup(webpage.content, "html.parser") getItem = soup.select("ul#productList li") # 이런식으로 크롤링이 안되는 경우에는 위에서 부터 ..