반응형

분류 전체보기 60

Google, 더욱 강력해진 Bard (19, Sep, 2023)

KEY TAKEAWAYS: Bard Extensions의 도입 "Google it" 버튼 도입 Bard 와의 대화 공유 및 확장 기능 추가 PaLM 2 - 최신 강화학습 기술 적용 https://bard.google.com/updates https://bard.google.com/updates bard.google.com 본문 최근 Google Bard가 업데이트를 했다는 소식이 알려졌다. 이번 업데이트에는 사용자의 편의성을 높이고 기능을 개선하는 다양한 내용이 포함되어 있다. 주요 내용은 다음과 같다. Bard Extensions: 사용자가 Bard의 기능을 사용자 지정하고 확장할 수 있는 기능이 추가되었다. "Google it" 버튼: 사용자가 Bard에게 Google 검색을 수행하도록 요청할 수 있..

카테고리 없음 2023.09.24

Microsoft LIDA 사용법

Microsoft 에서 오픈소스와 함께 제공하는 서비스인 LIDA에 대해 설명하고 사용법에 대해 알아보겠습니다. https://github.com/microsoft/lida GitHub - microsoft/lida: Automatic Generation of Visualizations and Infographics using Large Language Models Automatic Generation of Visualizations and Infographics using Large Language Models - GitHub - microsoft/lida: Automatic Generation of Visualizations and Infographics using Large Language Mode..

NMT with attention / Neural Machine Translation 설명

정의 Neural Machine Translation with attention 을 의역하면 다음과 같다. Sequence(input)에서 어디에 집중하여 인공신경망을 이용한 번역을 할 것인지의 관점에서 구현된 구조 Seq2Seq Architecture 간단히 Seq2Seq 구조에 대해 정리하자. 기존에 정리해놓았던 글을 인용해왔다. Seq2Seq은 시퀀스(sequence) 데이터를 다루는데 주로 사용된다. 가령, machine translation같은 작업에서 주로 사용되는데 영어를 불어로 바꾼다는 등의 task를 수행하기도 한다. 이를 위해 모델은 입력과 출력 간의 sequence mapping을 학습한다. 이 때 위에서 간단히 언급한 바와 같이 모델은 시간적인 의존성(Temporal dependen..

Time Series Transformer 의미 및 모델

정의 (Definition) "Time Series" + "Transformer" : Transformer 기반 시계열 데이터(Time Series) 예측 모델 HuggingFace에서는 Time Series Transformer를 다음과 같이 정의한다. The Time Series Transformer model is a vanilla encoder-decoder Transformer for time series forecasting. Vanilla encoder-decoder, 혹은 Transformer 에 대한 간략한 이해가 필요해보인다. Vanilla encoder-decoder encoder-decoder 구조 또한 딥러닝(인공신경망) 모델 중 하나이다. 시퀀스 데이터를 입력으로 받아 이를 예측..

오픈소스에 기여하는 법/ Github, Pull Request? Fork?

오픈소스에 기여하는 방법 중 하나는 GitHub를 통해 Pull Request를 보내는 것이다. 이를 위해서는 다음과 같은 절차를 따른다. 절차 1. 해당 오픈소스 프로젝트의 GitHub 저장소를 Fork. 이를 통해 자신의 GitHub 계정으로 해당 프로젝트의 코드를 가져올 수 있다. 2. Fork한 저장소를 로컬 컴퓨터로 Clone. 3. 로컬에서 코드를 수정하고, 변경사항을 Commit. 4. Fork한 원래 저장소와 동기화하기 위해 원래 저장소를 Remote로 추가. git remote add upstream https://github.com/ORIGINAL_OWNER/ORIGINAL_REPOSITORY.git 5. Fork한 원래 저장소의 변경사항을 가져오고, 자신의 Fork 저장소와 Merge..

COMPUTER SCIENCE 2023.05.01

Neural Radiance Fields (NeRF) Tutorial in 100 lines of PyTorch code 주석 및 해석

Originial Source: https://papers-100-lines.medium.com/neural-radiance-fields-nerf-tutorial-in-100-lines-of-pytorch-code-365ef2a1013 Neural Radiance Fields (NeRF) Tutorial in 100 lines of PyTorch code Neural Radiance Fields (NeRF) is a hot topic in the computer vision community. It is a 3D scene representation technique that allows… papers-100-lines.medium.com import torch import numpy as np from..

중심극한정리 / Central Limit Theorem 에 대해 알아보자

중심극한정리 : Central Limit Theorem 정의 vs 정리 이미 많이들 아시다시피 정의(Definition)과 정리(Theorem)은 서로 다른 개념이다. 정의(Definition)는 어떤 개념이나 용어의 의미를 정확히 정의(Define)하는 것이고 정리(Theorem)는 어떤 가설이나 명제를 증명(prove)하는 것이다. 가령, "집합"을 정의하기 위해 "원소"라는 개념을 사용하게되고, "집합은 서로 구별 가능한 원소들의 모임이다" 라는 정의를 사용해 "집합"을 정의한다. 반면, "만약 A가 B라면, A는 C이다"를 증명하고싶을 때, 적절한 수학적 기법과 논리를 사용하여 증명해야 한다. 아마 해당 가설은 삼단논법을 통해 매우 유명한 예시로 다들 알고있을 것이다. 중심극한정리는 통계학에서 매..

MACHINE LEARNING 2023.04.22

Autoencoder VS Seq2Seq 차이 비교

개요 Autoencoder와 Seq2Seq 모두 encoder-decoder 구조로 되어있다는 점이 유사하지만 차이점이 명확한 서로 다른 두 구조이다. 가장 큰 차이점으로는 목적과 구조적인 차이가 있다. Autoencoder는 데이터를 압축하고 재구성하는데 중점을 둔 unsupervised learning model이다. 입력데이터를 encoder로 압축하고, decoder를 통해 원래의 입력 데이터를 재구성(reconstruction)한다. 이 때 압축된 표현을 latent variable이라고 할 수 있다. 이 과정에서 모델은 input을 가능한 한 재구성(reconstruction)하는 방법을 학습하게된다. 즉, 사실상 Input을 적절하게 재구성해서 reconstructed input을 outpu..

Degree of Freedom(자유도) 정리

정의 Degree of Freedom(자유도) : 어떤 통계량이 자유롭게 변화할 수 있는 정도 자유도가 높을 수록 통계량의 변동성이 높아지며, 그만큼 더 정확한 추정치를 얻을 수 있다. 가령, t-distribution에서 자유도는 표본 크기와 관련이 있다. 표본 크기가 작으면 자유도가 작아지기 때문에 t-distribution의 꼬리(tail) 부분의 면적이 커지게되며 normal distribution과 달라지는 모습을 확인할 수 있다. 회귀(regression)에서도 자유도는 중요한 개념인데 SSE(Sum of Squared Error)나 SSR(Sum of Squared Residual)의 자유도는 각각 n-p-1과 p다. (이때 p는 number of coefficient, 1은 intercep..

MACHINE LEARNING 2023.04.09

LDA / QDA 차이 비교

LDA와 QDA는 모두 분류 모델링(Classification modeling)에서 사용되는 대표적인 알고리즘이다. 그러나 두 알고리즘은 다른 방식으로 작동하며, 특히 데이터가 가지는 분산의 정도에 따라 적합한 알고리즘이 달라진다. 이에 따라 LDA와 QDA의 차이점을 비교해보려한다. 정의 LDA: Linear Discriminant Analysis QDA: Quadratic Discriminant Analysis 일반적으로 Logistic Regression에서 확장된 개념으로 설명하고 있는 글이 많다. 두개 이상의 클래스를 구분하려할 때, Logistic Regression도 물론 classification을 할 순 있지만 일반적이지 못하다는 평가다. 혹은 클래스들이 잘 나눠져있지 않을 때, Logi..

MACHINE LEARNING 2023.04.01
반응형