11-12-2017, 08:33 AM
Muy buenas a todos.
En breve montare una RAMPS y me surge una duda con la calibracion de los drivers.
Viendo varios tutoriales, lo que hacen es conectar en serie un polimetro para medir los amperios. Conectan el driver y un motor, y ajustan el driver a 0.2A .
Mi duda es, ¿si el motor soporta por ejemplo 1.8A , porque lo ponen a 0.2A? ¿No seria mejor ponerlo a 1.2 o 1.5?
Seguramente algo entendi mal, pero no encuentro el que.
Un saludo y gracias por vuestro tiempo.
En breve montare una RAMPS y me surge una duda con la calibracion de los drivers.
Viendo varios tutoriales, lo que hacen es conectar en serie un polimetro para medir los amperios. Conectan el driver y un motor, y ajustan el driver a 0.2A .
Mi duda es, ¿si el motor soporta por ejemplo 1.8A , porque lo ponen a 0.2A? ¿No seria mejor ponerlo a 1.2 o 1.5?
Seguramente algo entendi mal, pero no encuentro el que.
Un saludo y gracias por vuestro tiempo.