2주차 스터디 정리 본문

백앤드 개발일지/웹, 백앤드

2주차 스터디 정리

giron 2021. 6. 26. 15:25
728x90
  • 웹스크래핑(크롤링) 기초
    • bs4
    • 크롤링 기본 세팅
      • import requests
        from bs4 import BeautifulSoup
        
        # 타겟 URL을 읽어서 HTML를 받아오고,
        headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
        data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
        
        # HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
        # soup이라는 변수에 "파싱 용이해진 html"이 담긴 상태가 됨
        # 이제 코딩을 통해 필요한 부분을 추출하면 된다.
        soup = BeautifulSoup(data.text, 'html.parser')
        
        #############################
        # (입맛에 맞게 코딩)
        #############################

 

  • select와 select_one 함수를 통해 정보를 긁어와서 입맛에 맞게 사용하면 된다!

 DB개괄

 

  • RDBMS(SQL)
    • 행/열의 생김새가 정해진 엑셀에 데이터를 저장하는 것과 유사합니다. 데이터 50만 개가 적재된 상태에서, 갑자기 중간에 열을 하나 더하기는 어려울 것입니다. 그러나, 정형화되어 있는 만큼, 데이터의 일관성이나 / 분석에 용이할 수 있습니다.
    • ex) MS-SQL, My-SQL 등

 

  • No-SQL
    • 딕셔너리 형태로 데이터를 저장해두는 DB입니다. 고로 데이터 하나 하나 마다 같은 값들을 가질 필요가 없게 됩니다. 자유로운 형태의 데이터 적재에 유리한 대신, 일관성이 부족할 수 있습니다.
    • ex) MongoDB

pymongo로 DB조작하기

  • 패키지 설치: pymongo
  • from pymongo import MongoClient
    client = MongoClient('localhost', 27017)
    db = client.dbsparta
    
    # 코딩 시작
  • DB연결하기 & 데이터 넣기
    • [코드스니펫] pymongo(insert)
    • doc = {'name':'bobby','age':21}
      db.users.insert_one(doc)
    • from pymongo import MongoClient           # pymongo를 임포트 하기(패키지 인스톨 먼저 해야겠죠?)
      client = MongoClient('localhost', 27017)  # mongoDB는 27017 포트로 돌아갑니다.
      db = client.dbsparta                      # 'dbsparta'라는 이름의 db를 만듭니다.
      
      # MongoDB에 insert 하기
      
      # 'users'라는 collection에 {'name':'bobby','age':21}를 넣습니다.
      db.users.insert_one({'name':'bobby','age':21})
      db.users.insert_one({'name':'kay','age':27})
      db.users.insert_one({'name':'john','age':30})

웹스크래핑 결과 저장하기

  • insert 연습하기 - 웹스크래핑 결과를 DB에 저장하기
  • #크롤링 완성코드
    import requests
    from bs4 import BeautifulSoup
    
    # URL을 읽어서 HTML를 받아오고,
    headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'}
    data = requests.get('https://movie.naver.com/movie/sdb/rank/rmovie.nhn?sel=pnt&date=20200303',headers=headers)
    
    # HTML을 BeautifulSoup이라는 라이브러리를 활용해 검색하기 용이한 상태로 만듦
    soup = BeautifulSoup(data.text, 'html.parser')
    
    # select를 이용해서, tr들을 불러오기
    movies = soup.select('#old_content > table > tbody > tr')
    
    # movies (tr들) 의 반복문을 돌리기
    for movie in movies:
        # movie 안에 a 가 있으면,
        a_tag = movie.select_one('td.title > div > a')
        if a_tag is not None:
            rank = movie.select_one('td:nth-child(1) > img')['alt'] # img 태그의 alt 속성값을 가져오기
            title = a_tag.text                                      # a 태그 사이의 텍스트를 가져오기
            star = movie.select_one('td.point').text                # td 태그 사이의 텍스트를 가져오기
            print(rank,title,star)
    

pymongo 코드 요약

# 저장 - 예시
doc = {'name':'bobby','age':21}
db.users.insert_one(doc)

# 한 개 찾기 - 예시
user = db.users.find_one({'name':'bobby'})

# 여러개 찾기 - 예시 ( _id 값은 제외하고 출력)
same_ages = list(db.users.find({'age':21},{'_id':False}))

# 바꾸기 - 예시
db.users.update_one({'name':'bobby'},{'$set':{'age':19}})

# 지우기 - 예시
db.users.delete_one({'name':'bobby'})
728x90
Comments