본문 바로가기

코딩

(88)
데이터 분석, 판다스 판다스(Pandas)- 데이터 분석을 위한 파이썬 라이브러리 중 하나로, 표 형태의 데이터나 다양한 형태의 데이터를 쉽게 처리하고 분석- 데이터프레임(DataFrame)이라는 자료구조를 제공!pip install pandasimport pandas as pd Series와  DataFrame Series- Series는 1차원 배열과 같은 자료구조로 하나의 열을 나타냄- Series의 각 요소는 인덱스(index)와 값(value)으로 구성되어 있음- 값은 넘파이의 ndarray 기반으로 저장됨- Series는 다양한 데이터 타입을 가질 수 있으며 정수, 실수, 문자열 등 다양한 형태의 데이터를 담을 수 있음idx = ['김사과', '반하나', '오렌지', '이메론', '배애리']data = [67, 7..
데이터 분석, 넘파이 1. 넘파이(Numpy)- 파이썬에서 사용되는 과학 및 수학 연산을 위한 강력한 라이브러리- 주로 다차원 배열을 다루는 데에 특화되어 있어, 데이터 분석, 머신러닝, 과학 계산 등 다양한 분야에서 널리 사용- 넘파이 배열은 C언어로 구현되어 있어 연산이 빠르고 효율적- 넘파이 배열은 큰 데이터셋에서 수치 연산을 수행할 때 뛰어난 성능을 보이며, 메모리 사용을 최적화하고 효율적으로 관리!pip install numpy 2. 넘파이의 주요 특징과 기능2-1. 다차원 배열(N-dimensional array)- 넘파이의 핵심은 다차원 배열 ndarray- ndarray는 동일한 자료형을 가지는 원소들로 이루어져 있음list1 = [1, 2, 3, 4]list2 = [[1, 2, 3, 4], [5, 6, 7, ..
Web Crawling, 3일차 ❤ 픽사베이2. 여러개 이미지 수집하기import timefrom selenium.webdriver.common.by import Bydriver = webdriver.Chrome()url = 'https://pixabay.com/ko/images/search/강아지/'driver.get(url)time.sleep(3)for _ in range(20): driver.execute_script("window.scrollBy({ top: window.innerHeight, behavior: 'smooth' })") time.sleep(0.3)image_area_xpath = '/html/body/div[1]/div[1]/div/div[2]/div[3]'image_area = driver.find_..
Web Crawling, 과제1 지니뮤직https://www.genie.co.kr/chart/top200https://www.genie.co.kr/chart/top200?ditc=D&ymd=20240520&hh=12&rtm=Y&pg=1https://www.genie.co.kr/chart/top200?ditc=D&ymd=20240520&hh=12&rtm=Y&pg=2import requestsfrom bs4 import BeautifulSoupurl = 'https://www.genie.co.kr/chart/top200?ditc=D&ymd=20240520&hh=12&rtm=Y&pg='for i in range(1, 5): site = '{}{}'.format(url, i) print(site)genie = []header = {..
Web Crawling, 2일차 셀레니움- 브라우저를 컨트롤 할 수 있도록 지원하는 라이브러리 !pip install selenium!pip install chromedriver_autoinstallerfrom selenium import webdriverfrom selenium.webdriver.common.keys import Keysdriver = webdriver.Chrome()driver.get('https://www.google.com')search = driver.find_element('name','q')search.send_keys('날씨')search.send_keys(Keys.RETURN)# 정리driver = webdriver.Chrome()driver.get('https://www.google.com')searc..
Web Crawling , 1일차 크롤링(Crawling)- 인터넷의 데이터를 활용하기 위해 정보들을 분석하고 활용할 수 있도록 수집하는 행위스크레이핑(Scraping)- 크롤링 + 데이터를 추출하고 가공하는 행위  ❤   Basic English Speaking import requestsfrom bs4 import BeautifulSoupsite = 'https://basicenglishspeaking.com/daily-english-conversation-topics/'request = requests.get(site)print(request)# print(request.text)soup = BeautifulSoup(request.text)# print(soup)divs = soup.find('div', {'class':'thrv..
React, 3일차 // App.jsimport React, { useState, useRef } from "react";import UserList from "./UserList";import CreateUser from "./CreateUser";function App() { const [inputs, setInputs] = useState({ username: '', email: '' }); const { username, email } = inputs; const onChange = e => { const { name, value } = e.target; setInputs({ ...inputs, [name]: value }); }; const [users, se..
React, 2일차 counter// input.jsimport React, {useState} from "react";function Input(){ const [text, setText] = useState(''); const onChange = (e) => { setText(e.target.value); } const onReset = () => { setText(''); } return ( 초기화 값: {text} );}export default Input; // MultiInput.jsimport React, { u..