MACHINE LEARNING 36

SaaS 에서의 RAG vs. Fine-Tuning 비교!

유용한 AI SaaS Application을 구축하려면 모델이 사용자의 외부 데이터에 액세스할 수 있어야 합니다.  그렇다면, RAG(Retreival Augemented Generation) vs. Fine-Tuning 중 어느것을 사용해야 할까요? 이번 글에서는 SaaS Application 관점에서 두 가지 접근 방식을 비교하고자 합니다.  🤣단순 비교만 원하시는 분은 마지막 Conclusion의 표를 확인하시면 됩니다🤣Introduction Multi-Tenant (클라우드의 하나의 자원을 쪼개서 서비스 사용자에게 제공; 마치 하나의 집을 쪼개서 빌려주는 개념) AI SaaS Application을 구축하려는 경우, Prompt Engineering(프롬프트 엔지니어링)에만 의존하는 한계를 경..

MACHINE LEARNING 2024.06.02

완전한 오픈소스와 언어모델 / OLMo: Open Language Model

최근 AI2는 Huggingface와 Github을 통해 대규모 언어 모델을 훈련하고 실험할 수 있는 프레임워크를 공개하며 첫번째 오픈 언어 모델(OLMo)를 출시했습니다. 아래 링크는 관련 논문 및 사이트입니다. Github: https://github.com/allenai/OLMo GitHub - allenai/OLMo: Modeling, training, eval, and inference code for OLMo Modeling, training, eval, and inference code for OLMo - GitHub - allenai/OLMo: Modeling, training, eval, and inference code for OLMo github.com 공개 블로그: https://b..

MACHINE LEARNING 2024.02.11

논문 리뷰 / RAG VS FINE-TUNING: PIPELINES, TRADEOFFS, AND A CASESTUDY ON AGRICULTURE

Original Paper: https://arxiv.org/abs/2401.08406 RAG vs Fine-tuning: Pipelines, Tradeoffs, and a Case Study on Agriculture There are two common ways in which developers are incorporating proprietary and domain-specific data when building applications of Large Language Models (LLMs): Retrieval-Augmented Generation (RAG) and Fine-Tuning. RAG augments the prompt with the external arxiv.org 본 포스트는 매..

MACHINE LEARNING 2024.01.28

OpenAI Assistant API 활용 예제 (Python Code) / ChatGPT

지난 11월 06일 OpenAI는 DevDay를 통해 새로운 Assistant API를 공개하였습니다. Assistant는 "Code Interpreter, Retrieval, Function calling" 과 같은 다양한 도구를 활용할 수 있습니다. 현재 베타 버전으로, 특정 Instruction과 model selection을 통해 사용자 정의 assistant를 생성할 수 있습니다. Assistant를 활용하는 것은 다음과 같은 절차에 의해 구성됩니다. 1. 어시스턴트 생성 - 어시스턴트에 대한 사용자 정의 지침 정의. - 모델 선택 및 Code Interpreter, Retrieval, Function calling과 같은 도구 활성화 여부 선택. 2. 대화 플로우 - 사용자가 대화를 시작하면 ..

MACHINE LEARNING 2023.11.12

Microsoft LIDA 사용법

Microsoft 에서 오픈소스와 함께 제공하는 서비스인 LIDA에 대해 설명하고 사용법에 대해 알아보겠습니다. https://github.com/microsoft/lida GitHub - microsoft/lida: Automatic Generation of Visualizations and Infographics using Large Language Models Automatic Generation of Visualizations and Infographics using Large Language Models - GitHub - microsoft/lida: Automatic Generation of Visualizations and Infographics using Large Language Mode..

NMT with attention / Neural Machine Translation 설명

정의 Neural Machine Translation with attention 을 의역하면 다음과 같다. Sequence(input)에서 어디에 집중하여 인공신경망을 이용한 번역을 할 것인지의 관점에서 구현된 구조 Seq2Seq Architecture 간단히 Seq2Seq 구조에 대해 정리하자. 기존에 정리해놓았던 글을 인용해왔다. Seq2Seq은 시퀀스(sequence) 데이터를 다루는데 주로 사용된다. 가령, machine translation같은 작업에서 주로 사용되는데 영어를 불어로 바꾼다는 등의 task를 수행하기도 한다. 이를 위해 모델은 입력과 출력 간의 sequence mapping을 학습한다. 이 때 위에서 간단히 언급한 바와 같이 모델은 시간적인 의존성(Temporal dependen..

Time Series Transformer 의미 및 모델

정의 (Definition) "Time Series" + "Transformer" : Transformer 기반 시계열 데이터(Time Series) 예측 모델 HuggingFace에서는 Time Series Transformer를 다음과 같이 정의한다. The Time Series Transformer model is a vanilla encoder-decoder Transformer for time series forecasting. Vanilla encoder-decoder, 혹은 Transformer 에 대한 간략한 이해가 필요해보인다. Vanilla encoder-decoder encoder-decoder 구조 또한 딥러닝(인공신경망) 모델 중 하나이다. 시퀀스 데이터를 입력으로 받아 이를 예측..

Neural Radiance Fields (NeRF) Tutorial in 100 lines of PyTorch code 주석 및 해석

Originial Source: https://papers-100-lines.medium.com/neural-radiance-fields-nerf-tutorial-in-100-lines-of-pytorch-code-365ef2a1013 Neural Radiance Fields (NeRF) Tutorial in 100 lines of PyTorch code Neural Radiance Fields (NeRF) is a hot topic in the computer vision community. It is a 3D scene representation technique that allows… papers-100-lines.medium.com import torch import numpy as np from..

중심극한정리 / Central Limit Theorem 에 대해 알아보자

중심극한정리 : Central Limit Theorem 정의 vs 정리 이미 많이들 아시다시피 정의(Definition)과 정리(Theorem)은 서로 다른 개념이다. 정의(Definition)는 어떤 개념이나 용어의 의미를 정확히 정의(Define)하는 것이고 정리(Theorem)는 어떤 가설이나 명제를 증명(prove)하는 것이다. 가령, "집합"을 정의하기 위해 "원소"라는 개념을 사용하게되고, "집합은 서로 구별 가능한 원소들의 모임이다" 라는 정의를 사용해 "집합"을 정의한다. 반면, "만약 A가 B라면, A는 C이다"를 증명하고싶을 때, 적절한 수학적 기법과 논리를 사용하여 증명해야 한다. 아마 해당 가설은 삼단논법을 통해 매우 유명한 예시로 다들 알고있을 것이다. 중심극한정리는 통계학에서 매..

MACHINE LEARNING 2023.04.22

Autoencoder VS Seq2Seq 차이 비교

개요 Autoencoder와 Seq2Seq 모두 encoder-decoder 구조로 되어있다는 점이 유사하지만 차이점이 명확한 서로 다른 두 구조이다. 가장 큰 차이점으로는 목적과 구조적인 차이가 있다. Autoencoder는 데이터를 압축하고 재구성하는데 중점을 둔 unsupervised learning model이다. 입력데이터를 encoder로 압축하고, decoder를 통해 원래의 입력 데이터를 재구성(reconstruction)한다. 이 때 압축된 표현을 latent variable이라고 할 수 있다. 이 과정에서 모델은 input을 가능한 한 재구성(reconstruction)하는 방법을 학습하게된다. 즉, 사실상 Input을 적절하게 재구성해서 reconstructed input을 outpu..