diff --git a/.gitattributes b/.gitattributes deleted file mode 100644 index dfe0770..0000000 --- a/.gitattributes +++ /dev/null @@ -1,2 +0,0 @@ -# Auto detect text files and perform LF normalization -* text=auto diff --git a/.github/How_to_PR_in_Github_Desktop.md b/.github/How_to_PR_in_Github_Desktop.md deleted file mode 100644 index e3d0057..0000000 --- a/.github/How_to_PR_in_Github_Desktop.md +++ /dev/null @@ -1,28 +0,0 @@ -## 초기 세팅 -1. github 로그인 / 아이디가 없다면 회원가입 -2. 구글에 `github desktop` 검색후 앱 설치 -> 앱 실행후 본인 깃허브 계정으로 로그인하기 -3. https://github.com/cpprhtn/AI-Learning-Guide 해당페이지에서 오른쪽 위에 `Fork` 버튼 클릭 -4. 왼쪽 아래 `Create Fork` 버튼 클릭 -> 자동으로 본인 깃허브 계정에 해당 레포지토리 복제 -5. 본인의 복제된 레포지토리에서 녹색 `Code` 버튼 클릭 -> `Open with GitHub Desktop` 버튼 선택 -6. 옵션 건들필요없이 파란색 `Clone` 버튼 클릭 -7. How are you planning to use this fork? -> To contribute to parent project 버튼을 클릭후 `Continue` 버튼 선택 - -## PR전 cpprhtn/AI-Learning-Guide와 동기화 시켜주기 -1. 본인의 AI-Learning-Guide 레포로 이동 -2. `main` branch 선택후 Code 버튼 밑에있는 `Fetch upstream` 클릭 -3. `Update branch` 버튼을 클릭 (parent project에서 업데이트 된 파일들이 있다면 여러분의 계정에도 반영시키는 작업) -4. Github Desktop 앱을 실행후 Current branch가 `main`인지 확인후 `Fatch origin` 버튼을 한번 클릭 -5. 받아올 파일이 있다면 Pull origin 버튼으로 바뀌며, 해당 버튼을 클릭해서 cpprhtn/AI-Learning-Guide와 동기화 시켜준다. - -## PR하는법 -1. 새로운 branch를 만든다. (ex. 본인의 계정명이든, 추가할 용어명이든 브랜치명은 main만 아니면 상관없음) -2. 파일을 만들거나 수정하거나 삭제한다. -3. 변경된 파일들이 Github desktop Change에 기록된다. -4. Summary 섹션에서 "단어사전 추가" 와 같이 본인이 작업한 활동을 적어준다. -5. "Commit to 브랜치명" 버튼을 클릭한다. -6. Push origin(또는 Publish branch으로 떠있는 경우도 있다.)버튼을 눌러준다. -7. Create Pull Request 버튼을 눌러준다. -8. 어떤 내용으로 PR했는지 내용을 간단하게 작성해준 후 Create Pull Request 버튼을 눌러준다. -9. 녹색은 cpprhtn/AI-Learning-Guide 레포에 문제없이 합칠 수 있는 상태 / 보라색은 cpprhtn/AI-Learning-Guide레포에 합쳐진 상태 / 빨간색은 cpprhtn/AI-Learning-Guide레포에 합쳐지지 못하거나 거절당한 상태. -10. 보라색으로 변해서 무사히 합쳐졌다면(merge) 합쳐진 브랜치는 지워도 무방하다. -11. 새로운 PR을 하려고 한다면, "## PR전 cpprhtn/AI-Learning-Guide와 동기화 시켜주기"부터 다시 따라서 진행한다. \ No newline at end of file diff --git a/.github/ISSUE_TEMPLATE/add-dictionary-table.md b/.github/ISSUE_TEMPLATE/add-dictionary-table.md deleted file mode 100644 index f650f28..0000000 --- a/.github/ISSUE_TEMPLATE/add-dictionary-table.md +++ /dev/null @@ -1,19 +0,0 @@ ---- -name: Add dictionary table -about: 용어사전에 추가할 내용 이슈 등록 -title: '' -labels: '' -assignees: '' - ---- - -아래 표의 A,B,C,D에 대한 내용을 수정해주시면 됩니다. - -|영어|준말|한글|부연 설명| -|---|---|---|---| -|activation function||활성화 함수|[링크](./activation_function.md)| -|A|B|C|D| - - -추가하려는 단어에 대한 부연 설명이 있다면 아래에 적어주세요 :) ---- diff --git a/.github/PULL_REQUEST_TEMPLATE.md b/.github/PULL_REQUEST_TEMPLATE.md deleted file mode 100644 index 9739b02..0000000 --- a/.github/PULL_REQUEST_TEMPLATE.md +++ /dev/null @@ -1,6 +0,0 @@ -## 어떤 내용에 대한 PR인지 간단히 적어주세요 - -ex) AI page 내용 추가 -ex) 용어 정리 page 용어 추가 ---- -//해당글을 지우고 적어주세요 \ No newline at end of file diff --git a/.github/workflows/ci.yml b/.github/workflows/ci.yml deleted file mode 100644 index ddc1cae..0000000 --- a/.github/workflows/ci.yml +++ /dev/null @@ -1,21 +0,0 @@ -name: ci -on: - push: - branchs: - - main -permissions: - contents: write -jobs: - deploy: - runs-on: ubuntu-latest - steps: - - uses: actions/checkout@v3 - - uses: actions/setup-python@v4 - with: - python-version: 3.x - - uses: actions/cache@v2 - with: - key: ${{ github.ref }} - path: .cache - - run: pip install mkdocs-material - - run: mkdocs gh-deploy --force \ No newline at end of file diff --git a/.gitignore b/.gitignore deleted file mode 100644 index bc26450..0000000 --- a/.gitignore +++ /dev/null @@ -1,4 +0,0 @@ - -Contributor/ -.DS_Store -empty/ diff --git a/.nojekyll b/.nojekyll new file mode 100644 index 0000000..e69de29 diff --git a/404.html b/404.html new file mode 100644 index 0000000..301c7f4 --- /dev/null +++ b/404.html @@ -0,0 +1,650 @@ + + + +
+ + + + + + + + + + + + + + +AI 관련 연구실 정보
+AI에 쓰이는 단어들이 일반적인 영어랑 다른의미로 쓰이는 경우도 많고, 또는 다른 배경지식이 필요한 경우도 많아서
+인공지능을 처음 배우는 사람들에게, 혹은 다른 도메인을 공부하는 사람들에게 도움이되고자 한번 기획해서 추진하려고 합니다!
+원하는 단어를 찾는 방법은 ctrl + F 혹은 command + F를 눌러 검색기능을 활용해주세요.
| 영어+ | 준말+ | 한글+ | 부연 설명+ | 
|---|---|---|---|
| accuracy+ | ACC+ | 정확도+ | + | 
| action+ | + | 행동+ | + | 
| activation function+ | + | 활성화 함수+ | + | 
| active learning+ | + | 액티브 러닝+ | + | 
| AdaGrad+ | + | + | + | 
| affine transformation+ | + | 아핀 변환+ | + | 
| agent+ | + | 에이전트+ | + | 
| agglomerative clustering+ | + | 병합 군집+ | + | 
| anomaly detection+ | + | 이상치 탐지+ | + | 
| area under the PR curve+ | PR AUC+ | + | + | 
| area under the ROC curve+ | AUC+ | + | + | 
| artificial general intelligence+ | AGI+ | 인공일반지능+ | + | 
| artificial intelligence+ | AI+ | 인공지능+ | + | 
| attention+ | + | 어텐션+ | + | 
| attribute+ | + | 속성+ | + | 
| attribute sampling+ | + | 속성 샘플링+ | + | 
| augmented reality+ | AR+ | 증강 현실+ | + | 
| automation bias+ | + | 자동화 편향+ | + | 
| average precision+ | + | 평균 정밀도+ | + | 
| backbone+ | + | 백본+ | + | 
| backpropagation+ | + | 역전파+ | + | 
| bagging+ | + | 배깅+ | + | 
| batch+ | + | 배치+ | + | 
| batch normalization+ | BN+ | 배치 정규화+ | + | 
| batch size+ | + | 배치 사이즈+ | + | 
| Bayesian neural network+ | + | 베이지안 신경망+ | + | 
| Bayesian optimization+ | + | 베이즈 최적화+ | + | 
| Bellman equation+ | + | 벨만 방정식+ | + | 
| Bidirectional Encoder Representations from Transformers+ | BERT+ | 버트+ | + | 
| bias+ | + | 편향+ | + | 
| bidirectional+ | + | 양방향+ | + | 
| bidirectional language model+ | + | 양방향 언어 모델+ | + | 
| binary classification+ | + | 이진 분류+ | + | 
| binary condition+ | + | 이진 조건+ | + | 
| boosting+ | + | 부스팅+ | + | 
| bounding box+ | + | 경계 상자+ | + | 
| broadcasting+ | + | 브로드캐스팅+ | + | 
| bucketing+ | + | 버케팅+ | + | 
| candidate generation+ | + | 후보 생성+ | + | 
| candidate sampling+ | + | 후보 샘플링+ | + | 
| categorical data+ | + | 범주형 데이터+ | + | 
| centroid-based clustering+ | + | 중심 기반 클러스터링+ | + | 
| checkpoint+ | + | 체크포인트+ | + | 
| classification model+ | + | 분류 모델+ | + | 
| classification threshold+ | + | 분류 임계값+ | + | 
| clipping+ | + | 클리핑+ | + | 
| clustering+ | + | 클러스터링+ | + | 
| collaborative filtering+ | + | 협업 필터링+ | + | 
| computer vision+ | CV+ | 컴퓨터 비전+ | + | 
| confirmation bias+ | + | 확증 편향+ | + | 
| confusion matrix+ | + | 혼동 행렬+ | + | 
| Continual Learning+ | + | + | 링크+ | 
| convergence+ | + | 수렴+ | + | 
| convex function+ | + | 볼록 함수+ | + | 
| convex optimization+ | + | 볼록 최적화+ | + | 
| convex set+ | + | 볼록 집합+ | + | 
| convolution+ | + | 합성곱+ | + | 
| cost+ | + | 비용, 손실+ | + | 
| co-training+ | + | + | + | 
| critic+ | DQN+ | + | + | 
| cross correlation+ | + | 교차상관관계+ | + | 
| cross entropy error+ | CEE+ | 교차 엔트로피 오차+ | + | 
| cross validation+ | + | 교차 검증+ | + | 
| data pre-processing+ | + | 데이터 전처리+ | + | 
| dropout+ | + | 드롭아웃+ | + | 
| end-to-end deep learning+ | + | 종단간 기계학습+ | + | 
| epoch+ | + | 에포크+ | + | 
| feature+ | + | 특징+ | + | 
| feature map+ | + | 특징 맵+ | + | 
| Few-Shot Learning+ | FSL+ | 퓨샷러닝+ | + | 
| filter+ | + | 필터+ | + | 
| forward propagation+ | + | 순전파+ | + | 
| fully-connected+ | FC+ | 완전연결+ | + | 
| gradient+ | + | 기울기+ | + | 
| gradient descent+ | GD+ | 경사 하강법+ | +optimizer | 
| gradient vanishing+ | + | 기울기 소실+ | + | 
| grid search+ | + | 그리드 서치+ | + | 
| hyper parameter+ | + | 하이퍼파라미터+ | + | 
| identity function+ | + | 항등 함수+ | +activation function | 
| imbalanced dataset+ | + | 비대칭 데이터+ | + | 
| Incremental Learning+ | + | + | + | 
| kernel+ | + | 커널+ | + | 
| learning rate+ | lr+ | 학습률+ | + | 
| mini batch+ | + | 미니배치+ | + | 
| momentum+ | + | 모멘텀+ | +optimizer | 
| natural language processing+ | NLP+ | 자연어처리+ | + | 
| normalization+ | + | 정규화+ | + | 
| one-hot encoding+ | + | 원-핫 인코딩+ | + | 
| optimization+ | + | 최적화+ | + | 
| optimizer+ | + | 옵티마이저+ | + | 
| overfitting+ | + | 오버피팅+ | + | 
| padding+ | + | 패딩+ | + | 
| parameter+ | + | 파라미터+ | + | 
| perceptron+ | + | 퍼셉트론+ | + | 
| pooling+ | + | 풀링+ | + | 
| random search+ | + | 랜덤 서치+ | + | 
| receptive field+ | + | 수용 영역+ | + | 
| rectified linear unit+ | ReLU+ | 렐루+ | +activation function | 
| sigmoid+ | + | 시그모이드+ | +activation function | 
| softmax+ | + | 소프트맥스+ | +activation function | 
| standardization+ | + | 표준화+ | + | 
| stochastic gradient descent+ | SGD+ | 확률적 경사 하강법+ | +optimizer | 
| stride+ | + | 스트라이드+ | + | 
| sum of squares for error+ | SSE+ | 오차제곱합+ | + | 
| training+ | + | 학습+ | + | 
| transopose matrix+ | + | 전치 행렬+ | + | 
| weight+ | + | 가중치+ | + | 
| weight initialization+ | + | 가중치 초기화+ | + | 
| whitening+ | + | 백색화+ | + | 
1) 수학을 잘 해야하는 이유? +-> prml, deep learning, esl, mml과 같은 고전(?) 기계학습을 이해할 수 있음
+2) 본인 도메인에 대한 deeply한 이해 +-> 이건 뭐 설명하려면 입만 아픔,,(ㅈㅅ)
+3) 위 1,2번 이해해서 어디에 써먹나? +-> 최신의 트랜디한 논문과 ML모델을 이해할 수 있음
+4) 트랜디한 논문과 모델, 어디에 써먹나? +-> 자기가 풀고자 하는 문제를 해결하는데 어떤 모델을 활용하면 좋을 지 직관력이 생김, 그리고 국제학회에서 Accept하려면 트렌디한 모델을 잘 활용하는게 중요
+5) 노벨티는 어떻게 올리는 지? +-> 사실 1,2번과 이 노벨티 능력 키우려고 석사 3개 학기를 날린거 같은데,, 저희 지도교수님도 강조하셨고 노벨티 키우는 훈련을 하는게 좋은 학회에 억셉되는데 도움된다고 하셨음 +우선, '문제 해결'을 어떤 방식으로 하는 지가 중요한데, 단순히 쓰는 모델을 바꿔서 성능을 키우는 건 좋은 논문이 아님 (이건 아무나 내는 학회에나 효과있음) +(정말 제가 아무에게도 알려주지 않은) 팁을 드리자면 제가 1학년때 교양으로 '발명'에 대한 교양수업을 들은 적이 있는데 '트리즈 기법' 이라고 해서 40가지 발명 원리에 대한 내용이 있음. +예시로 분할, 추출, 통합, 비대칭, 중첩, 사전보상, 반대로하기, 차원변경, 주기적작용, 매개체, 복제,,, (기타등등 있지만 구글링 해서 찾아보시길) 이제 이걸 내가 풀고자 하는 연구에 적용해 보는 것임. +근데 아시다시피 문제에 위와같은 원리를 적용하려면 수학적인 지식이 필요하다고 생각함 (1, 2번과 같이 수학 및 도메인을 잘 해야하는 이유라고 생각함)
+위의 '트리즈 기법' 같은 경우는 최근에야 제가 생각한 방법임. (대학교 1학년때 우연히 들었던 교양이 이렇게 유익하게 다가올 지 몰랐음), 본인의 경우 이제야 이 원리(?)들을 깨우쳐서 5월에 국제 탑 컨퍼런스에 1저자로 제출할 계획임 :)
+ + + + + + + + + + + + + +{"use strict";/*!
+ * escape-html
+ * Copyright(c) 2012-2013 TJ Holowaychuk
+ * Copyright(c) 2015 Andreas Lubbe
+ * Copyright(c) 2015 Tiancheng "Timothy" Gu
+ * MIT Licensed
+ */var Wa=/["'&<>]/;Vn.exports=Ua;function Ua(e){var t=""+e,r=Wa.exec(t);if(!r)return t;var o,n="",i=0,s=0;for(i=r.index;i