L'histoire des États-Unis est ce qui s'est passé dans le passé aux États-Unis, un pays d'Amérique du Nord.

Les Amérindiens ont vécu en Amérique pendant des milliers d'années. En 1607, les Anglais se sont rendus à l'endroit qui s'appelle aujourd'hui Jamestown, en Virginie. D'autres colons européens se sont installés dans les colonies, principalement en provenance d'Angleterre et plus tard de Grande-Bretagne. La France, l'Espagne et les Pays-Bas ont également colonisé l'Amérique du Nord. En 1775, une guerre entre les treize colonies et la Grande-Bretagne a commencé lorsque les colons étaient mécontents de payer des impôts à leur gouvernement au Royaume-Uni, mais n'avaient pas la possibilité de voter aux élections britanniques, pour contribuer à la manière dont cet argent était dépensé.

Juste après l'aube du 19 avril 1775, les Britanniques tentent de désarmer la milice du Massachusetts à Concord, Massachusetts, ce qui marque le début de la guerre avec le "Shot Heard Round the World". Le 4 juillet 1776, les Pères Fondateurs rédigent la Déclaration d'indépendance des États-Unis. Ils ont gagné la guerre révolutionnaire et ont fondé un nouveau pays. Ils ont signé la Constitution en 1787 et la Déclaration des droits en 1791. Le général George Washington, qui avait mené la guerre, en devint le premier président. Au cours du XIXe siècle, les États-Unis ont gagné beaucoup plus de terres en Occident et ont commencé à s'industrialiser. En 1861, plusieurs États du Sud ont tenté de quitter les États-Unis pour créer un nouveau pays appelé les États confédérés d'Amérique. Cela a provoqué la guerre civile américaine. Après la guerre, l'immigration reprit. Certains Américains sont devenus très riches en cet âge d'or, et le pays a développé l'une des plus grandes économies du monde.

Au début du XXe siècle, les États-Unis sont devenus une puissance mondiale, en combattant pendant la Première et la Seconde Guerre mondiale. Entre les deux guerres, il y a eu un boom économique appelé les années folles, où beaucoup de gens sont devenus plus riches, et une récession, appelée la Grande Dépression, où la plupart des gens étaient plus pauvres. La Grande Dépression s'est terminée avec la Seconde Guerre mondiale.

Les États-Unis et l'Union soviétique sont entrés dans la guerre froide. Cette guerre a inclus les guerres de Corée et du Vietnam. Pendant cette période, les Afro-Américains, les Chicanos et les femmes ont cherché à obtenir plus de droits. Dans les années 1970 et 1980, les États-Unis ont commencé à fabriquer moins de choses dans les usines. Le pays a alors traversé la pire récession qu'il ait connue depuis la Grande Dépression. À la fin des années 1980, la fin de la guerre froide a permis aux États-Unis de sortir de la récession. Le Moyen-Orient a pris une place plus importante dans la politique étrangère américaine, surtout après les attentats du 11 septembre 2001.