본문 바로가기
728x90
반응형

인공지능11

[인공지능] Autoencoder로 MNIST 데이터 생성해보기 오늘은 Autoencoder로 MNIST 데이터 생성해보는 과정을 말씀드리고자 합니다. 우선적으로 아래 예제 코드를 가지고 실행한 결과는 다음과 같습니다. 예제 코드)# 차원축소 예제: 3차원 롤 데이터를 생성해서 autoencoder를 이용해서 2차원으로 표현하는 코드import numpy as npimport matplotlib.pyplot as pltdef make_a_roll(num_data): # 롤 데이터 생성     f=3    unit_length=np.linspace(0,1,num_data)    t=f*unit_length*3.14    x=np.sin(t)*(unit_length+0.5)+np.random.randn(num_data)*0.01    z=np.cos(t)*unit_len.. 2024. 6. 8.
[인공지능] 로봇 계획의 사례와 알고리즘 구현 안녕하세요 오늘은 로봇 계획의 사례와 알고리즘 구현에 대해 알아보고자 합니다. 로봇 계획의 응용 사례로는 주로 길찾기와 청소로봇이 있습니다. 이러한 응용 분야에서 다양한 알고리즘이 사용됩니다. 길찾기 (Path Planning)1. A 알고리즘*: A* 알고리즘은 가장 널리 사용되는 길찾기 알고리즘 중 하나입니다. 이 알고리즘은 휴리스틱을 사용하여 최단 경로를 찾기 위해 Dijkstra 알고리즘과 Greedy Best-First Search의 요소를 결합합니다. A* 알고리즘은 정적 환경에서 특히 유용하며, 게임 산업, 로봇 경로 계획, 지능형 도시 교통 시스템 등에서 많이 사용됩니다​​​​. 2. Dijkstra 알고리즘: Dijkstra 알고리즘은 모든 가능한 경로를 계산하여 최단 경로를 찾습니다. .. 2024. 5. 28.
[인공지능] Q-learning으로 로봇의 경로찾기 안녕하세요! 오늘은 Q-learning 알고리즘으로 로봇의 경로찾기 실습을 해보고자 합니다. 우선적으로, 먼저 해당 강화학습을 실행 할 수 있는 pyton 오픈 소스를 활용해보았습니다. 출처 : https://github.com/sichkar-valentyn/Reinforcement_Learning_in_Python#final-q-table-with-values-from-the-final-shortest-route-for-environment-1 GitHub - sichkar-valentyn/Reinforcement_Learning_in_Python: Implementing Reinforcement Learning, namely Q-learning and Sarsa algImplementing Reinf.. 2024. 5. 28.
[인공지능] MINST DATA로 RBM 학습 시키기 안녕하세요! 오늘은 MINST DATA로 RBM 학습시키는 프로그램을 만들어 보고자 합니다.방법은 오픈소스와 Chat GPT를 이용해서 만들었습니다. 1. 오픈소스 출처 : https://github.com/mr-easy/Restricted-Boltzmann-Machine GitHub - mr-easy/Restricted-Boltzmann-Machine: Python implementation of Restricted Boltzmann Machine (RBM). And an example on MNPython implementation of Restricted Boltzmann Machine (RBM). And an example on MNIST dataset. - mr-easy/Restricted-Bo.. 2024. 5. 9.
728x90
반응형