네이버 디지털 트랜스포메이션, AI, 빅테이터 - 6 - AI -인공지능
본문 바로가기
회사이야기/회사·취업이야기

디지털 트랜스포메이션, AI, 빅테이터 - 6 - AI -인공지능

by 핑포 2020. 11. 12.

1. AI (인공지능) 역사

 

1980년대 : 전문가 시스템 도입되어 인공신경망 알고리즘 개선됨, 컴퓨팅 파워 부족으로 적용 X (마이신)

 

1980년대 후반 : 유집비, 효용성 문제로 전문가 시스템 도태, 인공지능의 암흑기

 

1990년대 : 검색엔진 활성화로 데이터 시대 개막, 머신러닝 이론 등장

 

2006년 : 딥러닝 논문 발표

 

2012년 : 딥러닝 혁명, 이미지넷 대회에서 이미지 인식률 84,7 % 의 정확도 달성

 

 


2. AI 개요

 

(1) 머신러닝

 

- 지도학습

문제와 정답까지 알려주고 학습시키는 방법

입력값과 결과값(레이블)을 이용한 학습법

분류, 회귀의 방법에 사용

학습모델 : SVM, decision tree(Random Forest), 회귀 모델 등

 

지도학습의 예) 

개와 고양이를 구분할 때 답지를 달아주고, 학습모델에 넣어주면 학습해서 모델이 됨

-> 답지가 없어도 구분가능하게 됨.


- 비지도 학습

문제는 알려주도되, 정답은 알려주지 않음

입력값만을 이용한 학습법 (데이터에서 일정한 규칙성을 찾음)

군집, 시각화, 데이터 간소화 등의 방법에 사용

데이터의 숨겨진 특성을 찾을 때 사용

주로 군집화를 위함

 

비지도학습의 예)

답지가 없다.->어느것이 고양이이고 개인지 모름 -> 사진을 보고 어떤 사진이 비슷한 사진인지 파악

-> 그룹으로 분류 -> 분류가 잘되었는지는 사람이 판단

 


- 강화 학습

자신이 환경 내에게서 현재 상태에 가장 높은 점수를 받을 수 있는 행동을 학습.

구글의 알파고

행동심리학에서 나온 이론으로, 분류할 수 있는 데이터가 존재하는 것도 아니고, 데이터가 있다해도 정답이 정해져 있지도 않으며, 자신이 한 행동에 대한 보상(Reward)를 받으며 학습.

 

 

강화학습의 요소

에이전트 : 학습자

환경 : 에이전트가 취할 수 있는 행동, 보상, 규칙 등

행동 : 보상을 얻기위한 행동

상태 : 행동에 따른 현재 상태 변화

보상 : 환경의 상태 변화에 따른 보상

 

강화학습의 동작 순서

-Agent가 주어진 환경의 현재 상태를 관찰하여, 이를 기반으로 행동을 취한다.

-환경의 상태가 변화하면서 Agent는 보상을 받게 된다.

-보상을 기반으로 Agent는 더 많은 보상을 얻을 수 있는 방향으로 행동을 학습하게 된다.

-최종 보상을 최대화 하는 방향으로 행동을 수정해 나간다. (지연된 보상)


(2) 딥러닝

 

-인공신경(퍼셉트론)과 딥러닝

인간의 뉴런을 모방해 만든 것이 바로 퍼셉트론 (단위 :신경)

퍼셉트론은 입력 값을 가중치를 두고 계산해 합이 임계치를 넘으면 신호를 출력하게 됨.

이러한 퍼셉트론을 여러 층으로 만들게 된 것이 심층신경망

 

- 심층신경망

단층 퍼셉트론은 해결할 수 없는 XOR 문제를 해결하기 위해 Hidden layer 추가

더 복잡한 문제 해결을 위해서 hidden layer를 더 추가할 수 있음.

심층 신경망은 Input layer, 2개 이상의 hidden layer, 그리고 Output Layer로 구성되어 있음.

과거의 퍼셉트론은 정답을 출력할 때까지 사람이 가중치를 수동으로 바꾸었다면, 심층 신경망에서는 자동으로 가중치를 찾아내고 이것이 머신러닝의 학습단계에 해당함.

 

 

-딥러닝이란

머신러닝의 카테로기 안에 들어가며, 학습알고리즘에 심층신경망을 사용한 머신러닝을 딥러닝이라 부름.

딥러닝은 지도/비지도/강화 학습에도 적용 가능

EX) 손으로 쓴 숫자 인식, 이미지 인식, 보상의 총합 계산

 

- 기존 머신러닝과 딥러닝의 차이

데이터 의존도 : 딥러닝의 경우, 데이터 양이 많아야함. 

하드웨어 의존도 : 많은 양의 계산 수행해서 고사양의 GPU가 필수임

문제해결 접근법 : 기존의 머신러닝은 여러 파트로 쪼개어 계산, 딥러닝은 입력만으로 답을 찾아냄

실행 시간과 해석력 : 딥러닝은 학습이 오래걸리는 편이며, 결과값이 왜 그렇게 나왔는 지 해석할 수 없음.

 


3. AI 최신 동향

 

(1) 설명 가능한 인공지능 (XAI)

 

-머신러닝 기술을 활용해 예측, 추천, 인식 기술을 발전시키고 있으나, 기존의 복잡한 알고리즘으로 인해 논리적 근거나, 과정의 타당성을 알 수 없다.

- 인공지능 모델로부터 추론된 결과가 사회 각 분야에 적용됨에 따라, 법적, 도덕적 이유로 그 결과 값에 대한 설명이 요구되고 있다.

- XAI는 추론된 정보를 역으로 계산하는 방법으로 구현 가능하다.

 

ex ) 털이있다 발톱이 있다 귀모양을 보았다 -> 고양이 이다

 


 

(2) 적대적 생성 학습 (GAN, generative adversarial networks)

 

-생성 모델은 가짜 데이터를 만들고 분류 모델은 진짜데이터를 학습하고 생성 모델이 만든 데이터의 진짜/가짜여부를 판별

 

-위조지폐범은 경찰을 속이기 위해 더 진짜같은 위조지폐를 만들고 경찰은 더 잘 구분해 내기 위해 학습함.

 

- 양측 모델이 함께 진화하여 최종적으로 판별률이 50% 가 되며 더 이상 진짜와 가짜를 구분할 수 없게 됨

 

- GAN의 활용 : 허구의 인물 생성, 새로운 제품의 발굴

 

- 데이터의 창조의 능력을 가짐 (Deep Fake 등)


(3) 연합 기계학습 (FML : Federated Machin Learning)

 

-전통적인 머신러닝은 대용량의 데이터를 고성능 서버에 저장하고, 예측값을 만들어 실제값과 차이를 보정하며 학습

- 대용량 데이터 업로드 시간 증가-> 학습시간 증가

- 개인정보 유출 및 악용 위험

 

 

- 개인의 단말기에서 사용 데이터를 바탕으로 사용자에 맞게 학습 한 후 각 단말기의 학습 내용을 모아 더 정교한 학습 모델 개발,

- 연산속도 증가 및 개인정보 보호 강화 -> 개인데이터가 아닌 학습 모델만을 중앙으로 전송해 개인 데이터를 보호

 


(4) Google Gboard

 

- 데이터 수집

사용자의 개인 데이터를 포함한 모든 텍스트 수집

음성 타이핑을 위한 음성 데이터 수집

주변 환경 정보 및 사용 단어 수집

 

- 데이터 활용

고객 개인 데이터를 바탕으로 단말기 내 자체 학습 모델 개발

각각의 단말기로부터 학습 모델 수집

학습 모델들을 바탕으로 메인 모델 업데이트 및 배포

 

- 제공 서비스

텍스트 입력 중 문맥에 맞는 단어 자동완성 제안

텍스트에 어울리는 이모티콘 추천

오타 자동 수정


4. 인공지능으로 발생되는 윤리적 문제

 

- 자율주행차의 윤리적 딜레마

A . 다수의 사람 vs 한명의 희생

B . 보행자 1명 vs 운전자

C . 보행자 다수 vs 운전자

 

*제조사가 만든 윤리 알고리즘에 따라 달라질 것임.

댓글