AI/Model (Paper)

    NIC : 이미지 문장 번역

    NIC : 이미지 문장 번역

    Show and Tell: A Neural Image Caption Generator 논문 :https://arxiv.org/abs/1411.4555 영상 : https://www.youtube.com/watch?v=yfsFW-mfOEY&t=146s (동빈나) 1. 모델 설명 이미지를 글로 번역하여 출력하는 기술이다. CNN + RNN 형태로 이루어져 있다. 여기서 rnn은 LSTM을 사용한다. (2015 논문이며 그당시 최고의 번역모델.) [ CNN ] -> context vextor(고정크기) -> [ RNN ] 형태 히든 스테이트 : 이전에 처리한 정보와, 지금 들어온 입력을 sigmoid 한 것. 히든 스테이트도 입력과 같은 차원을 가진다 (?) 출력 : FC를 거쳐 스팸 여부 (binary)를 ..

    Attention : NEURAL MACHINE TRANSLATIONBY JOINTLY LEARNING TO ALIGN AND TRANSLATE

    Attention : NEURAL MACHINE TRANSLATIONBY JOINTLY LEARNING TO ALIGN AND TRANSLATE

    Attention : NEURAL MACHINE TRANSLATIONBY JOINTLY LEARNING TO ALIGN AND TRANSLATE 논문 : https://arxiv.org/pdf/1409.0473.pdf 텐서플로우 코드 : https://www.tensorflow.org/tutorials/text/nmt_with_attention https://colab.research.google.com/github/tensorflow/tensorflow/blob/master/tensorflow/contrib/eager/python/examples/nmt_with_attention/nmt_with_attention.ipynb#scrollTo+yJ_B3mhW3jFk 코드2 : https://github.c..

    [Seq2Seq] Sequence to Sequence Learning with Neural Networks

    https://arxiv.org/abs/1409.3215 (+2020기준 가장 좋은 모델은 s2s가 아닌 transformer기반이다.) Sequence to Sequence Learning with Neural Networks Deep Neural Networks (DNNs) are powerful models that have achieved excellent performance on difficult learning tasks. Although DNNs work well whenever large labeled training sets are available, they cannot be used to map sequences to sequences. In this pap arxiv.org 이전 ..

    [코드] 오토인코더 - Training Deep AutoEncoders for Collaborative Filtering

    input_layer.py class UserItemRecDataProvider: def _build_maps(self): ''' self._user_id_map ,self._item_id_map 에 딕셔너리 형태로 [원래 id] = 새로운 아이디 넣기 ''' for line in src.readlines(): #한줄씩 읽기 parts = line.strip().split(self._delimiter) #strip() 맨앞과 맨뒤 \n제거 def iterate_one_epoch(self): ''' 배치로 학습할수 있게 처리하기 ''' mini_batch = torch.sparse.FloatTensor(i_torch, v_torch, torch.Size([self._batch_size, self._vect..

    [논문] 오토인코더 - Training Deep AutoEncoders for Collaborative Filtering

    [논문] 오토인코더 - Training Deep AutoEncoders for Collaborative Filtering

    논문 arxiv.org/pdf/1708.01715.pdf 코드 https://github.com/NVIDIA/DeepRecommender Training Deep AutoEncoders for Collaborative Filtering 개인적 요약 인코더와 디코더를 사용하는 구조이다. 인코더와 디코더는 서로의 구조가 미러링 되어있다. 입력을 받으면 인코더를 거치며 차원을 줄여 z를 만든 후 z를 디코더에 넣어 다시 원복하는 과정을 거친다. 이 과정을 거치면 sparse하던 데이터가 dense하게 바뀌는 원리이다. 따라서 차원축소로도 볼 수 있다. f를 모델, 활성함수라고 했을 때 f(x) = y이다. 출력은 입력을 최대한 원상복귀해야 하기에 수식상 f(x) = x를 만족시켜야 하며 즉 f(y) = y를 ..

    (진행중)Transformer : Attention Is All You Need 리뷰

    (진행중)Transformer : Attention Is All You Need 리뷰

    논문 : arxiv.org/pdf/1706.03762v5.pdf 코드 : https://tutorials.pytorch.kr/beginner/transformer_tutorial.html Attention Is All You Need NLP : (RNN -> (LSTM) -> seq2seq -> attention -> transformer) Abstract 지배적인 순서 전래 모델은 복잡한 반복이나 인코더와 디코더를 포함하는 CNN에 기반을 둔다. 최고의 수행 모델은 또한 어텐션 방법을 통해 인코더와 디코더에 연결한다. 2 Background 순차계산을 줄이는 목표는 또한 Extended Neural GPU, ByteNet, ConvS2S의 기초를 형성하는데 이들은 빌딩블록에 기초를 둔 convoluti..

    (진행중)DETR : End-to-End Object Detection with Transformers 리뷰

    논문 : arxiv.org/pdf/2005.12872v3.pdf End-to-End Object Detection with Transformers 2020 5월에 페이스북 리서치팀에서 발표한 object detection 논문이다. Abstract. 직접 디자인하는 요소를 없앴다. 예를 들어 복잡한 인코딩이나 사전 지식을 겸해야 하는 non-maximum suppression, anchor generation 등을 말이다. 메인은 DETR : DEtection TRansformer이다. 전역 loss를 기반으로 이분 매칭을 통해 고유 예측값을 강제한다. 그리고 인코더, 디코더 결과를 transform 한다. 예측 값은 병렬로 출력한다. 이는 개체의 관계와 전역 이미지 간으로 표현된다. 1. Introdu..