Respuestas

2013-10-20T00:45:44+02:00
Los derechos humanos son derecho fundamentales que el hombre posee por el hecho de ser hombre derechos que le son inherentes y que deben de ser consagrados y garantizados por la sociedad. En efecto, se entiende por derechos humanos al conjunto de prerrogativas inherentes a la naturaleza de las personas, cuya realización efectiva resulta indispensable para el desarrolo integral del individuo que vive en una sociedad jurídicamente organizada, mismos derechos que deben ser establecidos por la Constitucion y las leyes y, desde luego, reconocidos y garantizados por el Estado