When it comes to relationships with technology, questions of trust and trustworthiness are never far away. This paper explores how the rapid expansion of Artificial Intelligence (AI) technologies into people's everyday lives pushes the question of what it means to trust technology into new and unfamiliar territories, far beyond traditional frameworks associated with either functional reliability (subject-object), or those that take their inspiration from interpersonal (subject-subject) relations. Challenging the cognitivist and humanist emphases of such models of trust, the paper instead develops a more ontological sense of trust which foregrounds the complex material processes and unconscious forces that shape how people think and relate to AI. Drawing on in-depth interviews with users of AI-enabled navigation apps (like Google Maps and Waze), we draw out these ontological dimensions of trust in three main ways. First, how relationships with these technologies are strongly shaped by imaginaries that have significant performative impacts on how AI is conceived and whether and how it can be trusted. Second, how people's sense of trust is often attuned to the broader socio-technical ecologies that shape AI's existence. And finally, how the affective force of everyday habits enables or constrains trust in relation to specific contexts and scenarios. Cuando se trata de relaciones con la tecnolog & iacute;a, las cuestiones de confianza y fiabilidad nunca est & aacute;n lejos. Este art & iacute;culo explora c & oacute;mo la r & aacute;pida expansi & oacute;n de las tecnolog & iacute;as de inteligencia artificial (IA) en la vida cotidiana de las personas lleva la cuesti & oacute;n de lo que significa confiar en la tecnolog & iacute;a a territorios nuevos y desconocidos, mucho m & aacute;s all & aacute; de los marcos tradicionales asociados con la fiabilidad funcional (sujeto-objeto) o aquellos que se inspiran en las relaciones interpersonales (sujeto-sujeto). Al desafiar los & eacute;nfasis cognitivistas y humanistas de tales modelos de confianza, el art & iacute;culo desarrolla en cambio un sentido m & aacute;s ontol & oacute;gico de la confianza que pone en primer plano los complejos procesos materiales y las fuerzas inconscientes que dan forma a c & oacute;mo las personas piensan y se relacionan con la IA. Bas & aacute;ndonos en entrevistas en profundidad con usuarios de aplicaciones de navegaci & oacute;n basadas en IA (como Google Maps y Waze), extraemos estas dimensiones ontol & oacute;gicas de la confianza de tres maneras principales. Primero, c & oacute;mo las relaciones con estas tecnolog & iacute;as est & aacute;n fuertemente moldeadas por imaginarios que tienen impactos performativos significativos en c & oacute;mo se concibe la IA y si se puede confiar en ella y c & oacute;mo. En segundo lugar, c & oacute;mo la sensaci & oacute;n de confianza de las personas suele estar en sinton & iacute;a con las ecolog & iacute;as sociot & eacute;cnicas m & aacute;s amplias que dan forma a la existencia de la IA. Y, por & uacute;ltimo, c & oacute;mo la fuerza afectiva de los h & aacute;bitos cotidianos posibilita o restringe la confianza en relaci & oacute;n con contextos y escenarios espec & iacute;ficos. Quand on parle des rapports avec la technologie, les questions de confiance et de fiabilit & eacute; ne sont jamais loin. Cet article explore comment l'expansion rapide de l'intelligence artificielle (IA) dans notre vie quotidienne nous am & egrave;ne & agrave; pond & eacute;rer la signification de la confiance quand il s'agit de technologies qui sont dans des mondes nouveaux et non familiers, bien au-del & agrave; des structures traditionnelles associ & eacute;es avec la s & ucirc;ret & eacute; de fonctionnement (sujet-objet) ou ceux qui s'inspirent de liens interpersonnels (sujet-sujet). Il remet en question les valeurs cognitives et humanistes de ces derni & egrave;res et d & eacute;veloppe plut & ocirc;t un sens plus ontologique de la confiance qui analyse les processus mat & eacute;riels complexes et les forces inconscientes qui fa & ccedil;onnent la mani & egrave;re dont on pense et on per & ccedil;oit l'IA. En s'appuyant sur des entretiens approfondis avec des utilisateurs de navigateurs aliment & eacute;s par l'IA (tels que Google Maps et Waze), nous esquissons ces dimensions ontologiques de la confiance, en trois aspects : tout d'abord, la fa & ccedil;on par laquelle les imaginaires qui ont des impacts performatifs notables sur la mani & egrave;re dont on con & ccedil;oit l'IA et si on peut s'y fier influencent fortement les relations avec ces technologies. Deuxi & egrave;mement, la fa & ccedil;on dont le sens de confiance est souvent plus adapt & eacute; aux & eacute;cologies sociotechniques plus vastes qui mod & egrave;lent l'existence de l'IA. Et pour finir, celle dont la force affective des habitudes quotidiennes permet ou limite la confiance concernant des situations ou des contextes pr & eacute;cis.