본문 바로가기
728x90
반응형

분류 전체보기108

[인공지능] Autoencoder로 MNIST 데이터 생성해보기 오늘은 Autoencoder로 MNIST 데이터 생성해보는 과정을 말씀드리고자 합니다. 우선적으로 아래 예제 코드를 가지고 실행한 결과는 다음과 같습니다. 예제 코드)# 차원축소 예제: 3차원 롤 데이터를 생성해서 autoencoder를 이용해서 2차원으로 표현하는 코드import numpy as npimport matplotlib.pyplot as pltdef make_a_roll(num_data): # 롤 데이터 생성     f=3    unit_length=np.linspace(0,1,num_data)    t=f*unit_length*3.14    x=np.sin(t)*(unit_length+0.5)+np.random.randn(num_data)*0.01    z=np.cos(t)*unit_len.. 2024. 6. 8.
[인공지능] 로봇 계획의 사례와 알고리즘 구현 안녕하세요 오늘은 로봇 계획의 사례와 알고리즘 구현에 대해 알아보고자 합니다. 로봇 계획의 응용 사례로는 주로 길찾기와 청소로봇이 있습니다. 이러한 응용 분야에서 다양한 알고리즘이 사용됩니다. 길찾기 (Path Planning)1. A 알고리즘*: A* 알고리즘은 가장 널리 사용되는 길찾기 알고리즘 중 하나입니다. 이 알고리즘은 휴리스틱을 사용하여 최단 경로를 찾기 위해 Dijkstra 알고리즘과 Greedy Best-First Search의 요소를 결합합니다. A* 알고리즘은 정적 환경에서 특히 유용하며, 게임 산업, 로봇 경로 계획, 지능형 도시 교통 시스템 등에서 많이 사용됩니다​​​​. 2. Dijkstra 알고리즘: Dijkstra 알고리즘은 모든 가능한 경로를 계산하여 최단 경로를 찾습니다. .. 2024. 5. 28.
[인공지능] Q-learning으로 로봇의 경로찾기 안녕하세요! 오늘은 Q-learning 알고리즘으로 로봇의 경로찾기 실습을 해보고자 합니다. 우선적으로, 먼저 해당 강화학습을 실행 할 수 있는 pyton 오픈 소스를 활용해보았습니다. 출처 : https://github.com/sichkar-valentyn/Reinforcement_Learning_in_Python#final-q-table-with-values-from-the-final-shortest-route-for-environment-1 GitHub - sichkar-valentyn/Reinforcement_Learning_in_Python: Implementing Reinforcement Learning, namely Q-learning and Sarsa algImplementing Reinf.. 2024. 5. 28.
[인간공학] 정보이론(개념,응용)에 대하여 * 정보이론- 사람이 어떻게 정보를 처리하는지 연구하려면 정보라는 용어의 실무적 정의와 측정 방법이 있어야 한다.- 정보이론에서는 정의와 정량적 측정방법을 배운다. * 정보의 개념- 정보이론에서 정보란 불확실성의 감소라 정의한다.- 정보는 줄이는 것이 좋다. 정보가 0인게 좋다.- 정보의 정의에서는 메시지 자체의 중요성은 직접 고려하지 않는다. 그 출현 가능성만을 고려한다.- 확실한 사건의 출현에는 정보의 양이 적다.- 아주 불확실한 사건에는 많은 정보가 담겨있다.ex) 이미 확실한 것은 정보가 없는 것이고, 불확실한 것은 사람이 생각을 많이 해야 하니 정보가 많은 것자동차의 엔진온도 경고등이 들어왔다 -> 의심스러운 사건으로 많은 정보가 담겨 있다.안전띠 착용 경고 -> 중요하지만 자동차가 출발할 때마.. 2024. 5. 11.
728x90
반응형