1 |
021_KoNLPy corpus(말뭉치)를 NLTK 패키지로 분석해보기(2) |
|
|
2 |
022_KoNLPy corpus(말뭉치)를 NLTK 패키지로 분석해보기(3) |
|
|
3 |
023_KoNLPy 형태소 분석기별 품사 분류표 데이터프레임으로 변환 출력(1) |
|
|
4 |
024_KoNLPy 형태소 분석기별 품사 분류표 데이터프레임으로 변환 출력(2) |
|
|
5 |
025_KoNLPy 형태소 분석기별 품사 분류표 데이터프레임으로 변환 출력(3) |
|
|
6 |
026_단어주머니란 무엇인가 - Bag of words |
|
|
7 |
027_빈도 수 기반의 핵심어 추출 |
|
|
8 |
028_TF-IDF 어휘 빈도 문서 역빈도 |
|
|
9 |
029_자연어 처리를 위한 텍스트 수치화 작업 - BoW 구현하기(1) - 토큰화 처리 |
|
|
10 |
030_자연어 처리를 위한 텍스트 수치화 작업 - BoW 구현하기(2) - WordPunctTokenizer, TreebankWordTokenizer |
|
|
11 |
031_Bag of words 구현하기(3) - BoW 실습을 위한 텍스트 전처리 |
|
|
12 |
032_Bag of words 구현하기(4) - stopwords, punctuation 제거 |
|
|
13 |
033_사이킷런 BoW 구현1 |
|
|
14 |
034_사이킷런 BoW 구현2 - Count Vector 수치화 |
|
|
15 |
035_사이킷런 BoW 구현3 - 단어 사전화 처리된 vocabulary_(딕셔너리) 출력해보기 |
|
|
16 |
036_CountVectorizer 파라미터 옵션(1) - max_df, min_df |
|
|
17 |
037_CountVectorizer 파라미터 옵션(2) - max_features, stop_words |
|
|
18 |
038_CountVectorizer 파라미터 옵션(3) - ngram_range |
|
|
19 |
039_TfidfVectorizer 기반의 자연어 텍스트 수치화 작업(1) |
|
|
20 |
040_TfidfVectorizer 기반의 자연어 텍스트 수치화 작업(2) |
|
|