Definición de Derecho del Trabajo El Derecho del Trabajo es aquella rama de las ciencias del derecho compuesta por un conjunto de principios generales y normas jurídicas cuyo fin es brindar protección al trabajador y especialmente regular las relaciones contractuales entre este y su empleador. Para William Thayer y Patricio Novoa el Derecho del Trabajo es aquella rama del derecho que en forma...
Derecho del trabajo
D