π 2013

XIV Jornadas Rolando Chuaqui Kettlun
filosofía y ciencias

Concepción, Chile

4, 5 y 6 de diciembre 2013

Resúmenes de Ponencias y Comunicaciones

Acceder a libro de resúmenes completo en PDF

CONFERENCISTAS INTERNACIONALES INVITADOS

“La Presencia de los Teorema de Completud en la Obra de Leon Henkin”
María Manzano
Universidad de Salamanca, España

The Completeness of Formal Systems es el título de la tesis que Henkin presentó en Princeton en 1947, su director fue Alonzo Church. Son parte de esta tesis sus características demostraciones de completud, tanto para la teoría de tipos como para la lógica de primer orden. El teorema de completud de primer orden era un resultado conocido desde los años 30, época en la que Gödel lo demostró. Una consecuencia de la incompletud de la aritmética, demostrada asímismo por Gödel en esa época, es que cualquier lógica capaz de expresarla categóricamente es incompleta. Así que la teoría de tipos se sabía incompleta, pero Henkin introdujo los interesantes modelos generales y probó que con esa nueva semántica las fórmulas válidas y los teoremas lógicos coinciden. En ambos casos emplea un método innovador y muy versátil, que posteriormente se aplicó en muchas otras lógicas, incluso en las denominadas no clásicas.

Me parece interesante destacar el hecho de que su prueba de completud para la teoría de tipos precedió a la de completud de primer orden y no a la inversa, así nos lo cuenta él mismo casi 50 años después en su artículo, The Discovery of my Completeness Proofs.

De entre la importante colección de sus escritos destacaré los directamente relacionados con teoremas de completud, concretamente, los de Completeness in the Theory of Types y The Completeness of the First Order Functional Calculus en donde se demuestra dicho teorema para las lógica ya mencionadas, así como el de A Theory of Propositional Types y el de An Extension of the Craig-Lyndon Interpolation Theorem. De manera lateral también aparece este tema en su artículo Some Notes on Nominalism.

En el curso 1977-78 tuve el privilegio de ser alumna de Henkin y me sorprendió que la demostración de completud de la lógica de primer orden que él explicó en clase no fuera ninguna de las mencionadas, sino otra en la que usaba los resultados de Herbrand junto a la completud de la lógica proposicional, reduciendo así la completud de primer orden a la proposicional.

“Interpretación informacional de la mecánica cuántica: ¿qué se entiende por información?”
Olimpia Lombardi
CONICET – Facultad de Ciencias Exactas y Naturales, Universidad de Buenos Aires, Argentina

Durante las últimas décadas los enfoques informacionales para la interpretación de la mecánica cuántica han cobrado una especial vigencia. En palabras de Carlo Rovelli, según estos enfoques, “la teoría sólo describe la información que los sistemas tienen acerca de los demás”, entendiendo el concepto de información en términos formales precisos.
En la presente ponencia argumentaré que la adopción de un cierto formalismo para caracterizar la medida de la información no responde aún la pregunta acerca de qué es la información. En efecto, incluso sobre la base de un mismo tratamiento formal, el concepto de información puede interpretarse de diversas maneras, y cada una de las interpretaciones conduce a una diferente concepción de la mecánica cuántica en términos informacionales, con sus propios inconvenientes específicos.

PONENCIAS

“Racionalidad y engaño: porqué el egoísmo racional no nos hace morales”
Alejandro Rosas Lopez
Universidad Nacional de Colombia, Colombia

Ya es un lugar común criticar el modelo de agente racional conocido como homo economicus y su pretensión de explicar la variedad y ubicuidad de interacciones cooperativas entre los seres humanos. Según este modelo, el agente racional busca maximizar su utilidad basándose en deseos últimos relativos a su propio bienestar. Sus deseos sobre el bienestar de otros agentes son sólo instrumentales. Llamo egoísmo racional a esta estructura de deseos del homo economicus. Algunas teorías morales lo han adoptado para justificar leyes morales que conciernen a la justicia y a la equidad y para explicar su cumplimiento.

Las críticas contra este modelo se basan en evidencias experimentales. La economía experimental ha mostrado, al menos en el laboratorio, que las personas exhiben comportamientos que violan sus predicciones, debido a la presencia de deseos no-instrumentales respecto del bienestar de otros agentes. A estos deseos se les llama preferencias sociales (Bowles y Gintis 2011, cap. 3). Esta crítica es bienvenida por posiciones en filosofía moral que rechazan el egoísmo racional como fundamento de la moral y la justicia.

La evidencia experimental contra el homo economicus, aunque popular, es controversial (Binmore & Shaked 2010). Supongamos que la evidencia experimental es pertinente. Aun así, el teorema «folk» en teoría de juegos ha inspirado pruebas formales de la existencia de equilibrios de Nash con estrategias cooperativas (Bowles y Gintis 2011, cap.5), que demuestran que el egoísmo racional recomienda cooperar para maximizar utilidad en un dilema de prisioneros iterado. Además, el filósofo moral David Gauthier sostiene en Morals by Agreement (1986, 170) que, si los agentes pueden predecir sus intenciones con una probabilidad superior al azar, la estrategia racional-egoísta en un DP es cooperar. Ambos argumentos demuestran que el egoísmo racional justifica la cooperación humana. Pero además, explican que un agente racional adopte la cooperación como medio para maximizar su utilidad.

Ante esta situación preguntamos por el papel de las preferencias sociales en un modelo de agente racional: Si el egoísmo racional es suficiente para justificar y explicar la cooperación, ¿para qué tenemos preferencias sociales? Esta pregunta se puede descomponer en dos. Asumiendo que tenemos preferencias sociales, ¿para qué las necesitamos? Y si de hecho las necesitamos para cumplir una función en relación con la cooperación, ¿no es razonable esperar que esa función cuestione el papel explicativo, o el justificativo, o ambos, que se arroga egoísmo racional en relación a la cooperación?

Hay tres respuestas posibles a estos interrogantes. La primera respuesta mantiene la tesis según la cual el el egoísmo racional justifica y explica el comportamiento moral. Argumentos normativos y explicativos a la vez, derivarían de la racionalidad egoísta las estrategias morales de cooperación en dilemas de prisionero. En esta concepción las preferencias sociales y las emociones que las acompañan son redundantes. Podrían entonces funcionar como mecanismos de reserva, como los que los ingenieros introducen en máquinas complejas para asegurarlas contra eventuales fallas de sus mecanismos principales.

Una segunda concepción concuerda con la primera en que la racionalidad egoísta proporciona una justificación de las estrategias morales/cooperativas, pero niega que el egoísmo racional explique la adopción de conductas cooperativas. Debido a defectos de principio en nuestro diseño psicológico, los seres humanos no podemos cumplir las exigencias del egoísmo racional. Las preferencias sociales y las emociones que las acompañan tendrían una función remedial: son «muletas» que nos ayudan a seguir los mandatos del egoísmo racional (Frank 1988).

La tercera concepción va más allá de la segunda: rechaza que la racionalidad egoísta, ella sola, en ausencia de preferencias sociales, justifique la cooperación en dilemas de prisionero iterado. Básicamente, sin preferencias sociales, los agentes racionales egoístas incorporan el engaño como estrategia maximizadora. La racionalidad egoísta no puede, entonces, ni explicar ni justificar la cooperación ubicua y a gran escala, núcleo importante de la moralidad humana. Las preferencias sociales no son aquí meras «muletas» que ayudan a seguir los mandatos de la racionalidad egoísta; eliminan el engaño como opción y dan así el piso normativo requerido a la cooperación. Esta es la concepción que defenderé aquí. Expondré con algún detalle las dos primeras concepciones intentando mostrar por qué son insuficientes y por qué exigen dar el paso radical que nos lleva a la tercera concepción.

BINMORE, K., SHAKED, A. 2010: «Experimental economics: Where next», Journal of Economic Behavior and Organization 73, pp. 87-100.
BOWLES S., GINTIS H. 2011: A Cooperative Species. Human reciprocity and its evolution . Princeton and Oxford: Princeton University Press.
FRANK, R. 1988: Passions within Reason , New York: W.W. Norton.
GAUTHIER, D. 1986: Morals by Agreement . Oxford: Oxford University Press.

“La Filosofía para Niños como programa de desarrollo de habilidades del pensamiento científico”
Carolina Andrea Arredondo Ramírez, Loreto Andrea Mora Muñoz
USACH, Universidad Nacional Autónoma de México – Chile, México

La propuesta de Filosofía para Niños (en adelante FpN) es un programa curricular enfocado en el desarrollo de habilidades cognitivas a nivel de enseñanza básica. Este programa se entiende como proyecto interdisciplinar que se nutre tanto de la psicología cognitiva como de la didáctica de las ciencias, para concretizar un aporte capaz de considerarse integral, contextualizado en las aulas de clases, hacia el desarrollo de habilidades de pensamiento científico.

Para el Programa de FpN la clase debe de convertirse en una auténtica Comunidad de Investigación (Lipman, 1992) en la que el profesor y los alumnos muestran un mismo interés por el desarrollo del conocimiento. Varias propuestas en filosofía de la ciencia han abordado la postura de que el conocimiento científico se construye en comunidades de personas (Kuhn, 2006; Lakatos 1983). Investigaciones en didáctica de las ciencias (Gil Pérez, 2002; Furió et al. 2002; López Donoso, et al. 2008; Johnson & Johnson, 1990) y algunas propuestas de programas curriculares de enseñanza en ciencias (ECBI, INDAGA, EXPLORA ) han propuesto la enseñanza de las ciencias en términos de Comunidad de Investigación, donde los estudiantes y el profesor conforman una comunidad social enfocada en la construcción de conocimiento científico a partir de prácticas educativas que simulan el proceso de trabajo experimental que una comunidad científica lleva a cabo en sus laboratorios.

Una problemática fundamental que se presenta a la hora de acercarse o producir el conocimiento es que los estudiantes llegan a los cursos superiores (secundaria, segundo ciclo básico, enseñanza media, universitario, etc) con graves carencias en destrezas básicas de pensamiento (Braga et al, 2002; Odremán 2005; Tirado, 1986), tales como: conceptos afianzados, capacidad de comprensión, de análisis y síntesis, de razonamiento, de interrogación, diálogo, investigación y de búsqueda comunitaria.

Esta situación, que ocurre de manera similar tanto en asignaturas de corte humanista (lenguaje, historia, idiomas) como en asignaturas de corte científico (matemática, física, química, biología), es lo que entendemos como una falencia compartida, y ello nos lleva a pensar en la falta de un programa, como el que llamamos FpN, que aborde la construcción del conocimiento en términos del desarrollo de habilidades para guiar las prácticas educativas de las asignaturas que componen el currículum escolar en enseñanza básica. Proponemos entonces que este programa de FpN aborde el problema desde las distintas perspectivas, estudios, teorías y aportaciones de disciplinas (que sea interdisciplinar) y a la vez trate este problema de forma amplia y contextualizada en cada subsector de aprendizaje (que sea integral).

A partir de actividades enfocadas en el desarrollo del lenguaje (de discusión, de argumentación y de construcción de hipótesis), en el desarrollo de ubicación espacial y temporal (de medición, de estimación, de proyección, de perspectiva visual), y en el desarrollo de inferencias (de consecuencia, de causalidad, de propabilidad, de certeza), se presenta esta propuesta de FpN como un programa que facilita el desarrollo de habilidades del pensamiento científico. Aquí por pensamiento científico no nos referimos sólo al supuesto tipo de racionalidad que deviene en el quehacer científico ortodoxo, si no que apelamos a un concepto más actual e integrador de pensamiento científico, donde hay habilidades mínimas que son compartidas por las ciencias humanistas y cientificistas, por las ciencias empíricas y teóricas.

Entendemos que una propuesta de este tipo contempla un cambio substancial en la concepción de Educación con la que hasta ahora hemos convivido, y que probablemente cueste tiempo, dinero, y sobretodo voluntades políticas y esfuerzos personales, pero sin duda alguna consideramos que se acerca mucho más a la idea de Paidedia de los platonistas (Platón, 1997) que el modelo actual de separación y subdivisión de habilidades a partir de disciplinas y campos del conocimiento, concretizados en el ambiente escolar como asignaturas de aprendizaje.

Una propuesta integral de la educación, en aras de la formación de los estudiantes como agentes cognoscitivos y como ciudadanos racionales capaces de tomar decisiones, que aborde las carencias en destrezas básicas del pensamiento es lo que podría, en cierta medida, contrarrestar el problema de las falencias compartidas en los procesos de enseñanza – aprendizaje de las asignaturas que componen los currícula oficiales. Lo cual exhorta tanto a docentes como a los alumnos a asumir el aula no sólo como una interacción de una comunidad real, sino también como una comunidad en la que se investiga, se construye y se devela el conocimiento a partir del mismo trabajo conjunto de investigación.

REFERENCIAS
Kuhn, T. (2006) La estructura de las revoluciones científicas. México: Fondo de cultura económica.
Lakatos, I. (1983). La metodología de los programas de investigación científica. Alianza Editorial.
Tirado Segura, F. “La crítica situación de la educación básica en México”, en Ciencia y Desarrollo, núm. 71, pp. 81-94. 1986
Braga, L.; Gallardo, R.; Calderón, M.; Morales, J.; Kling, N. “Espectro de dificultades que presentan los alumnos que ingresan a la Universidad de Concepción en las carreras de Ingeniería y Licenciatura en Física”. Concepción, Chile, 2002.
López Donoso. Et al. “Aprendizaje Colaborativo y Significativo en la resolución de problemas de física en estudiantes de ingeniería”. Cad. Bras. Ens. Fís., v. 25, n. 1: p. 55-76, abr. 2008.
Furió, C.; Carnicer, J. “El desarrollo profesional del profesor de ciencias mediante tutorías de grupos cooperativos. Estudio de ocho casos”. Enseñanza de las Ciencias, v. 20, n. 1, p. 47-73, 2002.
Johnson, D. W.; Johnson, R. (1990). Cooperation and competition. Theory and research. Hillsdale, NJ: Addison-Wesley,
Lipman, M. (1992) La Filosofía en el Aula. Madrid: Eds. De la Torre.
Odremán, N. “Analizando el Currículo Básico Nacional. Los ejes transversales”. Brújula. Revista para padres y maestros. Año 1 N° 1. Venezuela. Marzo de 2005.
Platón.(1997) Gorgias. Diálogos. Editorial Biblioteca Clásica Gredos. Madrid.

“De la economía política a la ciencia económica: tres tensiones en el cambio de objeto de estudio de los fenómenos económicos”
Daniel Jesús Durán Sandoval
Universidad de Santiago de Chile, Chile

Los seres humanos como entidades biológicas requieren para su subsistencia ciertas condiciones que posibiliten la vida, por ejemplo agua, aire, alimentos y abrigo; en este sentido, desde el punto de vista de la antropología, las herramientas y recipientes necesarios para conseguirlos existen y son básicos en cualquier tipo de sociedad y cultura, ya sea simple o compleja (Berdicheswsky 2002: pp. 139), y ningún pueblo carece de algún tipo de vestimenta o vivienda, por mínimos que sean (Berdicheswsky 2002: pp. 141).

Con el fin de satisfacer las anteriores necesidades y así asegurar los medios de subsistencia básicos, se constituye una relación fundamental entre la naturaleza y los seres humanos, que a su vez se contienen y dinamizan por las relaciones sociales de producción establecidas por cada sociedad, o, dicho de otra manera, la relación que adopten los seres humanos con la naturaleza dependerá mutuamente de la forma de organización social que adopte cada sociedad, pueblo o comunidad.

De lo anterior, derivamos que indistintamente de la sociedad de que se trate, – simple o compleja, antigua o moderna, industrial o campesina, abierta o cerrada al comercio, etc. – se requiere un tipo de organización social que cumpla con la producción y distribución de los recursos y bienes necesarios para la subsistencia de la sociedad.

El estudio de estas relaciones sociales fue el objeto de estudio de los economistas políticos clásicos del siglo XVIII y XIX. No obstante lo anterior, en la economía contemporánea el objeto de estudio de la ciencia económica difiere del mencionado anteriormente, siendo básicamente el siguiente: “[…] la asignación de los recursos escasos a distintos fines rivales.” (Nicholson 2007, pp3).

En la presente ponencia se propondrá plantear y desarrollar tres tensiones fundamentales que expliquen el cambio en el objeto de estudio de los fenómenos económicos, a saber, la tensión entre valor objetivo (teorías de costo de producción) y valor subjetivo, como fundamento explicativo de los precios de las mercancías; la tensión entre explicar los fenómenos económicos a través de explicaciones cualitativas o explicaciones cuantitativas; y finalmente la tensión entre escasez y abundancia de recursos.

Las tres tensiones anteriores derivan del contraste de profundas posturas filosóficas, que en el caso de la primera tensión intentaron dar respuesta a las siguientes preguntas, ¿el valor es objetivo o subjetivo?, entendiendo por objetivo como intrínseco a los objetos o mercancías, independiente de las personas que consumen los bienes, y por subjetivo, que depende de las valoraciones subjetivas que cada persona posee de una mercancía en particular; ahora, si es objetivo ¿existen precios naturales?, y si existiesen ¿Cuáles son las leyes naturales que los determinan?; por otro lado, si el valor de las mercancías es subjetivo, ¿Cuáles son las leyes que gobiernan las preferencias o deseos humanos?.

Con la segunda tensión se intentó contestar las siguientes preguntas, ¿los fenómenos económicos son intrínsecamente cuantitativos?, si son cuantitativos ¿es posible expresar y representar tales fenómenos en un lenguaje matemático?, ¿es posible aplicar el método hipotético-deductivo para explicar los fenómenos económicos?, ¿es posible predecir con precisión o exactitud los fenómenos económicos?

Por último, la tercera tensión se explica en relación con el desarrollo de las teorías económicas y las dos tensiones previas, puesto que, es posible comprender la escasez a partir de un hecho económico práctico y concreto, como lo experimentado en la época de los economistas políticos clásicos donde de facto había escasez de alimentos y de bienes, sin embargo, que puede ser superable empíricamente; o, por otro lado, entender la escasez como un supuesto natural a partir de la teoría económica, como por ejemplo, asumiendo que el valor es subjetivo, de donde se sigue que existen tantas necesidades como personas existen y además que tales necesesidades pueden ser infinitas, con lo cual la escasez sería inherente a la estructura teórica y no un hecho empírico.

La bibliografía básica (entre otros textos) sobre la cual se basa la presente propuesta de ponencia es la siguiente:
– BERDICHEWSKY, Bernardo. (2002). “Antropología social: Introducción, Una visión global de la humanidad”, Ediciones LOM.
– HAUSMAN, Daniel (1192), “The Inexact and Separate Science of Economics”, Cambridge University Press.
– HUME, David (2008), “Ensayos económicos: los orígenes del capitalismo moderno”, Editorial biblioteca nueva.
– MARSHALL, Alfred (1997), “Principles of Economics”, Editorial Prometheus Books.
– MARX, Karl. (1844). “Manuscritos económico-filosóficos”, reimpresión 2005, Editorial Centro Gráfico.
– MARX, Karl (2010). “El Capital”, Editorial Alianza.
– MENGER, Carl (1981). “Principles of Economics”, New York University Press.
– MILL, John Stuart. (1863). “El utilitarismo”, Editorial Alianza.
– MILL, John Stuart (2008), “Principles of Political Economy”, Editorial Sintesis.
– NICHOLSON, Walter (2007), “Teoría Microeconómica, principios básicos y aplicaciones”, Editorial McGraw-Hill.
– SMITH, Adam. (1759). “Teoría de los sentimientos morales”, primera edición 2004, Editorial alianza.
– SMITH, Adam. (1776). “Una investigación sobre la naturaleza y causa de las riqueza de las naciones”, Editorial Tecnos 2009.
– STANLEY, William Jevons (2004), “La teoría de la economía política”, Piramide Ediciones S.A.
– RICARDO, David (1821). “Principios de economía política y tributación”, Ediciones Orbis S.A.
– WALRAS, Leon (2010), “Elements of Pure Economics”, Routledge Library Editions.

“Justificación epistémica, contextos y prácticas”
Eduardo Fuentes Caro
Universidad de los Andes, Chile

Además de investigar la naturaleza del conocimiento, la epistemología se ha interesado por la justificación epistémica. Análisis tradicionales del conocimiento lo hacían consistir en parte de esta última. Luego de (Gettier 1963) esta aproximación se ha visto en aprietos, pero eso no ha hecho disminuir la atención prestada a la justificación. Sea cual sea su relación con el conocimiento, pocos dudan que ella tiene un valor epistémico positivo. Esto a pesar de que hay variados e incompatibles entendimientos de cuándo una creencia está justificada; y lo que es peor todavía, qué significa que una creencia lo esté.
Algunos, movidos especialmente por este último desacuerdo, han sostenido que las diferentes teorías hablan de diferentes fenómenos. (Alston 2005) ha llegado a afirmar que no existe tal cosa como la justificación epistémica. Ciertamente, es tentador abandonar un concepto tan difícil de asir y enfocarse en los diversos desiderata epistémicos que una creencia o sistema doxástico pueden tener. Por otra parte, pareciera que al dejar de hablar de creencias justificadas perdemos poder expresivo, puesto que hay ciertas prácticas epistémicas y morales, que no podemos abandonar y que requieren de la distinción entre creencias justificadas e injustificadas.
En esta ponencia argumentaré que la solución a este dilema es girar hacia un enfoque social de la epistemología. Dicho enfoque, defendido por ejemplo en (Goldman 1999) social, señala cómo el individualismo epistémico distorsiona las experiencias que subyacen y constituyen la materia de investigación epistemológica. Específicamente, argumentaré que sólo prestando atención a las ya mencionadas prácticas podemos explicar por qué cierto fenómeno puede ser llamado “justificación epistémica”.
Varios filósofos trabajando en ética y política han notado la centralidad de nuestra práctica de pedir y dar justificaciones de nuestras creencias. Ella estructura en gran medida qué tipo de relaciones sociales son adoptadas y qué tipo de argumentos son considerados convincentes o aceptables, como se ha señalado con fuerza en la literatura liberal de las últimas décadas. (Forst 2012) ha llegado incluso a identificar a la persona como aquel ser que da y pide justificación.
Esta centralidad es apreciable también en campos más propiamente epistémicos, como la investigación científica. Cuándo, cómo y por qué las personas involucradas en ella piden justificaciones irá determinando qué tipo de resultados son aceptables, qué líneas de investigación es plausible seguir. Incluso, dado el contexto social en que ella se ubica, las prácticas de justificación influirán en la cantidad y forma de recursos que recibirá. Los criterios internos de justificación suelen tener resultados externos, que a su vez tienen consecuencias en el desarrollo mismo de la ciencia.
Siguiendo a (Annis 1978) y a (Leite 2004), argumentaré que reflexión sobre estas prácticas apunta al carácter esencialmente interpersonal de la justificación. Uno justifica una creencia a alguien. Justificar p consiste en poder responder las objeciones de otras personas de manera aceptable. Rechazo, entonces, la concepción de espectador (Leite) prevaleciente en la literatura, según la cual no hay una conexión esencial la actividad de justificar y el estado de estar justificado. Asimismo, este enfoque lleva a negar que la justificación sea parte constituyente del conocimiento. Éste no responde a expectativas sociales, ni desempeña un papel en la evaluación personal de los pares, como sí lo hace la justificación.
Al igual que Annis, defiendo una teoría contextualista, puesto que qué cuente como una respuesta aceptable dependerá del contexto. A diferencia del contextualismo tradicional – representado en (DeRose 1999) –, no es una teoría acerca del concepto “justificación” sino de su estructura. Argumentaré que debemos entender los contextos como constituidos por al menos tres factores:
1. Espacio social.
2. Creencias de trasfondo.
3. Prácticas de investigación.
Básicamente, toda demanda de justificación se da en un espacio social, es decir, es un lugar determinado por una serie de relaciones sociales y de limitaciones prácticas. Por ejemplo, una asamblea cuya duración máxima es un par de horas no es igual a una charla distendida en una cafetería, o una sesión en el parlamento. Además, en toda demanda de justificación hay creencias que son presupuestas o que, aunque no presupuestas, dan forma a los diversos razonamientos de los participantes. Finalmente, una demanda tal está guiada por ciertas prácticas epistémicas (y también quizás morales) de investigación. Hay formas de pedir justificaciones, tipos de respuestas y, fundamentalmente, objetivos epistémicos que son constitutivas de las prácticas motivan la demanda.
Mostraré cómo estos tres elementos se configuran para crear los contextos, señalando casos específicos. Al hacer eso, se verá que la relación entre ellos no siempre es armoniosa, y que no todo contexto es igualmente coherente o deseable. Por lo mismo, una investigación social de la justificación permite también una crítica epistémica pero también ética-política de los diferentes contextos de justificación.

Bibliografía
Alston, W.P., 2005. Beyond« justification»: dimensions of epistemic evaluation, Cambridge Univ Press.
Annis, D.B., 1978. A contextualist theory of epistemic justification. American Philosophical Quarterly, 15(3), pp.213–219.
DeRose, K., 1999. Contextualism: An explanation and defense. The Blackwell guide to epistemology, pp.187–205.
Forst, R., 2012. The right to justification, Columbia University Press.
Gettier, E.L., 1963. Is justified true belief knowledge? Analysis, 23(6), pp.121–123.
Goldman, A.I., 1999. Social epistemology. Crítica: Revista Hispanoamericana de Filosofía, 31(93), pp.3–19.
Leite, A., 2004. On justifying and being justified. Philosophical Issues, 14(1), pp.219–253.

“El estatuto epistemológico de los instrumentos científicos”
Francisco Covarrubias Villa, Ma. Guadalupe Cruz Navarro
Instituto Politécnico Nacional, México

Toda teoría científica implica la existencia de determinados objetos de investigación, procedimientos específicos para construir su conocimiento y un conjunto de instrumentos. Cada teoría supone hechos determinados. Un suceso es considerado un hecho por ser un constructo de pensamiento que así fue llevado a la razón, sin que necesariamente exista su correlato en lo real.

La ciencia diseña pruebas que implican la creación de instrumentos de medición ad hoc. Los instrumentos provienen de teorías derrotadas o abandonadas que son perfeccionados y adaptados a los nuevos usos o bien de nuevos diseños.

Existen por lo menos tres maneras de concebir los instrumentos científicos: 1) Como mediadores sensoriales neutrales entre la razón y los objetos y reales. 2) Como ampliadores de la capacidad de los sentidos y. 3) Como generador de estructuras y comportamientos determinados de lo real. Si la filiación del científico es aristotélica, la fabricación y el uso de instrumentos se abocan al engrandecimiento de la capacidad sensitiva. Si la filiación es platónica, los instrumentos se diseñan y construyen para generar, percibir, medir o contar contenidos de lo real producidos por la razón, por lo que el instrumento adquiere una función epistemológica y ontológica. De este modo, el experimento científico se vuelve contra la experiencia empírica.

La medida sigue siendo un medio para que la inteligencia construya el conocimiento del objeto. La magnitud no es conocimiento y, sin embargo, entre los científicos predomina la creencia de que el conocimiento se vuelve objetivo en la medida en que se torna instrumental. El instrumento es en realidad teoría pues el microscopio es más una prolongación del espíritu que del ojo.

Si el instrumento es creado desde una teoría específica, es útil para percibir lo que la teoría que lo creó busca, por lo que un instrumento usado en una teoría inconmensurable con la que el instrumento fue creado, es ciego y sordo. A Einstein le resulta inaceptable una teoría que formula la inexistencia de leyes y el carácter activo del conocimiento, en términos de que las acciones del sujeto cognoscente generan cambios ónticos en el objeto de conocimiento como Heisenberg proponía y como Marx 50 años atrás lo formulaba. Sin embargo, la mecánica cuántica no propone la activación direccional e intencional instantánea del objeto por el sujeto en el acto observacional, sino la relación activadora del instrumento en el objeto y la multiplicidad de observaciones posibles entre observadores participantes que antes Einstein había planteado ya.

Los instrumentos científicos son diseñados y construidos con base en el uso que se les dará; con él se realizan funciones propias de la práctica investigadora de una determinada comunidad epistémica, constituida por la asunción de una teoría como verdadera. La utilización de instrumentos en prácticas investigadoras en teorías en las que el instrumento no fue creado, sólo es posible cuando la tarea en la que se emplea proviene de una teoría sustentada en la misma filiación filosófica de la teoría en la que el instrumento fue creado. Dado que las teorías científicas están constituidas con un andamiaje híbrido en el que se combinan conceptos y categorías de filiación filosófica platónica y aristotélica, si la teoría científica se sustenta en el supuesto de que los sentidos son el punto de partida del conocimiento de lo real, los instrumentos científicos operan como prolongación de los sentidos; si la teoría sostiene que los sentidos distorsionan o impiden el conocimiento de lo real y que éste sólo es conocido por la razón, los instrumentos científicos operan como generadores de lo real.

Bibliografía:
Bachelard, G. La formación del espíritu científico, ed. Siglo XXI: México; 2004, 302 pp.
Cline, B. L. Los creadores de la nueva física, ed. FCE: México; 2004, 344 pp.
Einstein, A. “Sobre la teoría especial y la teoría general de la relatividad” en Einstein, A. y otros. Teoría de la relatividad, ed. Esfinge: Buenos Aires; 2005, 190 pp.
Heisenberg, W.K. Física y filosofía, ed. La isla: Buenos Aires; 1959, 177 pp.
Heisenberg, W.K. La imagen de la naturaleza en la física actual, ed. Orbis: Barcelona; 1985, 131 pp.
Heisenberg, W.K. “Encuentros y conversaciones con Albert Einstein” en Hernández, O. et al. La revolución einsteniana de 1905, ed. IPN: México; 2005, 254 pp.
Herbig, J. La evolución del conocimiento. (Del pensamiento mítico al pensamiento racional), ed. Herder: Barcelona; 1997, 333 pp.
Kuhn, T.S. La estructura de las revoluciones científicas, ed. FCE: México; 1986.
Kumar, M. Quántum, ed. Kairós: Barcelona; 2011, 575 pp.
Mach, E. “La ciencia de la mecánica” en Einstein, A. y otros. Teoría de la relatividad, ed. Esfinge: Buenos Aires; 2005, 190 pp.
Reale, G. Introducción a Aristóteles, ed. Herder: Barcelona; 2007, 209 pp.
Schrödinger, E. Ciencia y humanismo, ed. TusQuets: Barcelona; 2009, 84 pp.

“Gráficos Existenciales como Razonamiento Estructural”
Javier Legris
IIEP-BAIRES (CONICET-UBA), FACULTAD DE CIENCIAS ECONOMICAS, UBA, ARGENTINA

De acuerdo con su idea de una “lógica exacta”, Charles S. Peirce (1839-1914) concibió su sistema de lógica diagramática, los Gráficos Existenciales (GE), como la manera más natural y adecuada de representar la deducción. Así, estos constituían una metodología general para el tratamiento matemático de la lógica sobre la base de nociones topológicas e inauguraban una nueva orientación en la lógica simbólica. Peirce formuló diferentes sistemas de Gráficos Existenciales, correspondientes a lo que hoy se entiende por lógica de enunciados, lógica de predicados, lógica modal y lógica de segundo orden, que han venido siendo estudiados en los últimos años.

Este trabajo se propone tender un puente entre los GE y la perspectiva actual del “Razonamiento Estructural”. Esta perspectiva estudia “el razonamiento en el estilo de secuentes que usa únicamente reglas estructurales” (véase Schroeder-Heister 2002, p. 246). Las reglas estructurales no se refieren a las composiciones estructurales de las fórmulas por medio de conectivas lógicas o cuantificadores, sino afectan únicamente a la manera en que las fórmulas aparecen en secuentes. Estas ideas tienen su origen en el análisis de la deducción que llevó a cabo Gerhard Gentzen en sus “Investigaciones sobre la deducción lógica” (véase Gentzen 1935).

Más específicamente, en el trabajo se aspira a sugerir que los EG de Peirce pueden ser razonablemente entendidos como una forma de Razonamiento Estructural. En lugar de basarse en sistemas de secuentes los EG emplean diagramas para formular propiedades generales de la deducción y para definir conceptos lógicos. En lugar de emplear recursión y combinatoria, los EG pueden ser estudiados mediante la topología. Esto conduce a ver a los EG como una explicitación de estructuras lógicas. Se da por supuesto que los diagramas admiten un doble emleo: (a) como una manera intuitiva de expresar la naturaleza de la deducción, y (b) como una herramienta matemática para caracterizar las constantes lógicas en diferentes sistemas lógicos.

Las principales tesis a defender en el trabajo pueden resumirse como sigue: (1) El contexto de los EG permite una clara correspondencia entre la teoría lógica, que incluye nociones topológicas, y la teoría filosófica, centrada en una concepción icónica de la deducción. (2) La teoría filosófica lleva a que tanto la deducción como los conceptos lógicos no dependan del lenguaje ordinario. Además, el “rizo” (scroll) de los EG no será empleado para expresar directamente un condicional, sino para expresar una estructura de implicación. Esta idea es consecuente con la “ambigüedad productiva” de la representación diagramática. Debido a su naturaleza puramente estructural, los diagramas están abiertos a diversas interpretaciones. Desde el punto de vista del razonamiento estructural, la lógica se organiza a partir de estructuras de implicación. Los operadores lógicos se caracterizan de acuerdo con la manera en que interactúan respecto de la implicación.

En el período maduro de su pensamiento, Peirce sostenía que toda la matemática era diagramática, y, tal como afirmaba en el vol. IV de sus New Elements of Mathematics, una demostración matemática se caracterizaba como la construcción de un diagrama. Dado que los diagramas son íconos, una demostración tiene una función icónica respecto de la deducción. En general, una argumentación deductiva consiste en la construcción de un ícono o diagrama, que es manipulado por medio de reglas con el fin de hacer explícita la información que contiene y cuyas relaciones corresponden a las existentes en el “objeto del pensamiento”. En su trabajo sobre álgebra de la lógica de 1885, Peirce ya defendía esta posición, que implica tanto la visualización de objetos como acciones sobre ellos (Peirce CP 3.363 and CP 5.165). Entre las consecuencias a extraer de aquí cabe mencionar la utilización de nociones topológicas en la metalógica (una “semántica topológica” o una “teoría topológica de la demostración”). Ilustraciones de esto se ofrecerán de un modo informal a lo largo del trabajo, discutiendo también resultados de Arnold Oostra (Oostra 2010). Esto servirá para establecer correlaciones con las reglas estructurales en secuentes, de modo de establecer rasgos comunes entre las perspectivas de Peirce y de Gentzen. También se mostrará la viabilidad de combinar sistemas diagramáticos con notaciones unidimensionales.

Referencias
Gentzen, Gerhard. 1935. «Untersuchungen über das logische Schließen». Mathematische Zeitschrift 39, pp. 176-210 y 405-431.
Oostra, Arnold. 2010. “Los gráficos Alfa de Peirce aplicados a la lógica intuicionista”. Cuadernos de Sistemática Peirceana 2, pp. 25-60.
Peirce, Charles Sanders. CP. Collected Papers. 8 volúmenes, vols. 1- 6 compilados por Charles Hartshorne & Paul Weiss, vols. 7-8 compilados por Arthur W. Burks. Cambridge (Mass.), Harvard University Press, 1931-1958.
Peirce, Charles Sanders. NEM. The New Elements of Mathematics by Charles S. Peirce, 4 vols., comp. por Carole Eisele. La Haya, Mouton, 1976. Atlantic Highlands, N. J., 1976. cxxxviii + 2478 pp.
Schroeder-Heister, Peter. 2002. “Resolution and the origins of structural reasoning: Early proof-theoretic ideas of Hertz and Gentzen”. Bulletin of Symbolic Logic 8, pp. 246-265.

“¿Cúmulos o sustratos? La estructura de los objetos particulares”
José Tomás Alvarado Marambio
Instituto de Filosofía, Pontificia Universidad Católica de Chile, Chile

Tradicionalmente se han presentado dos grandes alternativas para comprender la naturaleza de un objeto particular. Un tipo de concepción ha entendido a los objetos particulares como constituidos por un sustrato o particular desnudo que instancia ciertas propiedades. Otro tipo de concepción, en cambio, ha tendido a eliminar el sustrato y suplantarlo por un cúmulo o haz de propiedades que cumplan sus funciones. Los objetos particulares, entonces, han sido entendidos o como sustratos con propiedades o como cúmulos de propiedades. Estas dos grandes concepciones han sido entendidas, además, como alternativas excluyentes entre sí y que cubren el espacio lógico completo. La adopción de una teoría subsumida bajo una de estas alternativas implica el rechazo de las teorías subsumidas bajo la otra. En la imagen prevalente, además, no hay una tercera forma de comprender la naturaleza de un objeto particular que no caiga bajo una de estas concepciones.
Por supuesto, hay una enorme variedad de diferentes posiciones filosóficas en que puede especificarse una teoría de sustratos o una teoría de cúmulos. Una teoría de sustratos puede postular que los objetos particulares están constituidos por un particular desnudo o delgado instanciando propiedades universales (cf. Armstrong, 1978a, 102-132; 1997, 95-99, 107-138; Lowe, 1999, 28-83, 154-209; 2006, 20-33, 69-100), pero también puede postular que este particular desnudo o delgado instancia propiedades particulares o tropos, en vez de universales (cf. Martin, 1980; Heil, 2003, 137-150, 169-178; 2012, 12-83). En el caso límite, se puede postular solamente un particular delgado sin propiedades de ningún tipo, ni particulares ni universales. Todas las formas de nominalismo, en efecto, cuentan como teorías de sustratos (cf. Armstrong, 1978a, 11-57; 1989, 21-58). Para el caso de las teorías de cúmulos se encuentra una variedad semejante. Los particulares pueden ser entendidos como cúmulos de propiedades universales (cf. O’Leary-Hawthorne y Cover, 1998) o como cúmulos de propiedades particulares o tropos (cf. Williams, 1953a, 1953b; Campbell, 1981; 1990, 1-51; Denkel, 1996, 16-70, 153-194; Maurin, 2002, 117-180; Ehring, 2011, 98-135). Cómo se efectúe la conexión de las propiedades que conforman un cúmulo para constituir algo unitario genera nuevas alternativas teóricas.
En este trabajo se quiere argumentar que las teorías que comprenden los objetos particulares como cúmulos de propiedades y las teorías que comprenden los objetos particulares como constituidos por un sustrato no son incompatibles entre sí. No se trata de alternativas excluyentes. Para esto, se pretende mostrar que cabe en el espacio lógico una teoría que sea, al mismo tiempo, una ontología de cúmulos de tropos y una ontología que postula un sustrato. Por supuesto, mostrar la coherencia de una teoría semejante no es todavía una justificación de ésta, aún cuando –como es obvio– habrá de entrada motivos de unificación teórica que estarán militando a su favor. Supóngase, en efecto, un tropo de ser o existencia. Se trata de una propiedad particular, esto es, un tropo como cualquier otro. Este tropo, sin embargo, es constitutivo del objeto. No tiene sentido, en efecto, pensar en un objeto que pueda estar instanciando la propiedad de ser, pues un objeto no puede ser nada por encima o por fuera de su propio ser. Este tropo de ser puede cumplir las funciones de un sustrato y ser aquello en que se instancian las restantes propiedades de un objeto. Todo aquello que posea este tropo de ser será idéntico al objeto en cuestión en diferentes mundos posibles y en diferentes instantes de tiempo. Las condiciones de identidad de un objeto, por tanto, quedan fijadas con la identidad de este tropo tanto en lo modal como en lo temporal. Una teoría en donde se postula un tropo de ser que cumple las funciones de sustrato es una teoría de cúmulos de tropos, pues los objetos particulares están constituidos nada más que por tropos, pero es también una teoría de sustratos, pues se postula un sustrato como unificador y sujeto de instanciación de las restantes propiedades.
Junto con los motivos de unificación teórica a favor de una teoría de este estilo, hay motivos de economía por los que convendría que los defensores de ontologías de sustratos la aceptasen, y motivos de simplicidad y de poder explicativo por los que convendría que los defensores de ontologías de cúmulos de tropos también la aceptasen. Convendría que los defensores de ontologías de sustratos la aceptasen, en primer lugar, pues de este modo consiguen una teoría que –sin traicionar sus intuiciones fundamentales– apela a una única categoría ontológica para la explicación de los particulares: tropos. Convendría que los defensores de cúmulos de tropos la aceptasen, en segundo lugar, porque un tropo de ser que conforme el núcleo del cúmulo en que consiste un objeto (cf. Simons, 1994) es una buena explicación de la unidad del objeto sin hacer apelación a hechos primitivos ad hoc. Estos motivos no consideran todas las diferentes concepciones acerca de la naturaleza de los objetos particulares, pero sí a las consideradas más verosímiles, lo que refuerza –consiguientemente– la verosimilitud de la teoría aquí presentada.

Referencias
David M. Armstrong (1978a), Universals and Scientific Realism, Volume I: Nominalism and Realism, Cambridge: Cambridge University Press.
David M. Armstrong (1978b), Universals and Scientific Realism, Volume II: A Theory of Universals, Cambridge: Cambridge University Press.
David M. Armstrong (1989), Universals. An Opinionated Introduction, Boulder: Westview.
David M. Armstrong (1997), A World of States of Affairs, Cambridge: Cambridge University Press.
Keith Campbell (1981), “The Metaphysic of Abstract Particulars” Midwest studies in Philosophy 6, 477-488.
Keith Campbell (1990), Abstract Particulars, Oxford: Blackwell.
Arda Denkel (1996), Object and Property, Cambridge: Cambridge University Press.
Douglas Ehring (2011), Tropes. Properties, Objects, and Mental Causation, Oxford: Oxford University Press.
John Heil (2003), From an Ontological Point of View, Oxford: Clarendon Press.
John Heil (2012), The Universe as We Find it, Oxford: Clarendon Press.
E. Jonathan Lowe (1999), The Possibility of Metaphysics. Substance, Identity, and Time, Oxford: Clarendon Press.
E. Jonathan Lowe (2006), The Four-Category Ontology. A Metaphysical Foundation for Natural Science, Oxford: Clarendon Press.
Charles B. Martin (1980), “Substance Substantiated” Australasian Journal of Philosophy 58, 3-10.
Anna-Sofia Maurin (2002), If Tropes, Dordrecht: Kluwer.
John O’Leary-Hawthorne y C. A. Cover (1998), “A World of Universals” Philosophical Studies 91, 205-219.
Peter Simons (1994), “Particulars in Particular Clothing: Three Trope Theories of Substance” Philosophy and Phenomenological Research 54, 553-575.
Donald C. Williams (1953a), “On the Elements of Being: I” Review of Metaphysics 7, 3-18.
Donald C. Williams (1953b), “On the Elements of Being: II” Review of Metaphysics 7, 71-92.

“Silogismos con términos indefinidos”
Manuel Correia
Instituto de Filosofía PUC, Chile

En el artículo “Syllogistic with indefinite terms” se ha desarrollado una extensión silogística que introduce exitosamente los términos indefinidos en la silogística categórica. Esta extensión, que fue buscada sin resultados positivos por autores como I.M. Bochenki (1948), I. Thomas (1949), A.N. Prior (1953), Thom (1981), se realizó modificando los 5 axiomas que controlaban los procesos conclusivos de la silogística categórica que habían sido presentados en Correia (2003), p. 100. En la presentación que se propone se hace una historia de cómo se produjo esta reducción y a la vez se muestra cómo todos los procesos conclusivos de la lógica categórica se controlan actualmente por un único conjunto de tres axiomas y cómo este conjunto unifica la teoría, sin necesidad de distinguir inferencias inmediatas y mediatas (silogismos). Igualmente, la idea es incorporar la figura del profesor Rolando Chuaqui como un pionero en esta investigación, pues fue él quien me motivó por los años 90 a sistematizar los axiomas o reglas silogísticas sobre la base de lo que por entonces se hallaba en los libros de la especialidad.

Referencias
BOCHENSKI, I.M. 1948. ‘On the categorical syllogism’, Dominican Studies, 1, 35–7.
Correia M. 2001. “Boethius on Syllogisms with Negative Premisses”, in Ancient Philosophy, 21 (2001), pp. 161-174, Mathesis Publications, Pittsburgh, USA.
CORREIA, M. 2003. La lógica de Aristóteles, Santiago de Chile: Ediciones Universidad Católica de Chile.
PRIOR, A.N., 1953. “The Logic of the Negative Terms in Boethius”, Franciscan Studies, 13 (1953), vol I, pp. 1-16.
Thom, P. 1981. The Syllogism, München: Philosophia Verlag.
THOMAS I., O.P., 1949. “CS(n): An Extension of CS”, Dominican Studies (1949), pp. 145-160.

“Individualismo psicológico; La unidad de análisis como presupuesto teórico”
Pablo Andrés Contreras Kallens
Universidad de Chile, Chile

Es una idea frecuente de los análisis de la relación entre «teoría» y «evidencia», en la filosofía de las ciencias, la existencia de principios centrales en la construcción teórica que determinan la caracterización e interpretación que se tiene de los explananda y articulan la investigación en el nivel empírico (sólo como ejemplos tradicionales se puede tomar a Kuhn (2012) y Lakatos (2010)). Entre otros, estos núcleos teóricos estarían compuestos por supuestos acerca de la naturaleza del fenómeno y por la limitación de los niveles relevantes de los cuales debe hacerse cargo la teoría determinada.

En la presente ponencia, pretendo abordar este tema desde el prisma de la psicología científica o ciencia cognitiva. Siguiendo a Rowlands (1999; 2010) y Wilson (2004), defenderé que el individualismo es una concepción acerca preteórica acerca de la naturaleza de la mente que, adoptado y refinado por las teorías ortodoxas de la ciencia cognitiva (Fodor, 1980; Burge, 2007), cumple el papel de los núcleos teóricos recién caracterizados.

En un primer momento, ofreceré una caracterización de los presupuestos individualistas tomando elementos presentes en las discusiones de Rowlands (1999, 2003, 2010), Wilson (2004) y Menary (2007). Presentaré un esquema final según el cual el individualismo toma partido en la llamada unidad de análisis de una teoría, esto es, el nivel de descripción al cual se atribuye el despliegue efectivo del explanandum. El individualismo sería una delimitación de la unidad de análisis de los fenómenos psicológicos, afirmando que el nivel adecuado para su estudio es el sistema organísmico, compuesto por todos los elementos que son considerados internos al individuo. Esto tendría consecuencias en la carga explicativa que deben soportar los diversos componentes del sistema, y, por lo tanto, tiene consecuencias para la forma que toma la explicación ofrecida en último término.

Luego, aplicaré esta versión de los presupuestos individualistas utilizando la teoría de la visión de Marr (Marr et al., 2010) como un caso paradigmático de la aplicación de estos presupuestos en la construcción teórica y en la interpretación del fenómeno a estudiar. En particular, afirmaré que la identificación de la unidad de análisis del sistema organísmico como la adecuada para el fenómeno de la percepción visual, en la forma del dogma de la imagen retinal (Gibson, 1979), es central para la configuración que asume su teoría computacional de la visión.

En la segunda y última parte de la ponencia, comenzaré exponiendo dos argumentos frecuentes en contra de la presuposición de los principios individualistas: los argumentos desde el acoplamiento causal y el argumento desde la manipulación. Luego, utilizaré también la herramienta conceptual de la unidad de análisis para caracterizar distintos programas científicos que no asumen los presupuestos centrales del individualismo; es decir, propuestas teóricas que no identifiquen al sistema organísmico como la unidad de análisis adecuada para el estudio de los fenómenos psicológicos. Me centraré en dos: la propuesta de la mente extendida (Clark & Chalmers, 1997; Menary, 2007; Rowlands, 2010) y el programa de percepción visual ecológica de Gibson (1966; 1979). Ambas propuestas tienen como principio guía que los fenómenos psicológicos requieren de la consideración de elementos externos al sistema organísmico como parte constitutiva de los sistemas cognitivos y, por lo tanto, implican un rechazo de los supuestos individualistas que articulan las teorías de la ortodoxia.

A modo de conclusión, defenderé que, análogamente al caso de las teorías individualistas, el rechazo de estos principios toma el papel de un presupuesto nuclear de las teorías.La postura que tomen con respecto al nivel de descripción adecuado de los fenómenos psicológicos determina la explicación que tanto teorías individualistas como no individualistas ofrecen de ellos. Lejos de ser un datum, como algunas posturas descriptivistas (por ejemplo, Hayek, 1967) podrían afirmar, la unidad de análisis de la cognición es parte de la disputa teórica de la ciencia cognitiva.

Bibliografía
Burge, T. (2007). Foundations of Mind. New York: Oxford University Press.
Clark, A. & D. Chalmers (1998). “The Extended Mind”. En R. Menary (2010) (ed.) The extended mind. Cambridge, MA.: The MIT Press.
Fodor, J. (1980) “Methodological Solipsism Considered as a Research Strategy in Cognitive Psychology.” Behavioral and Brain Sciences 3.01: 63–73.
Gibson, J. J. (1966). The senses considered as perceptual systems. Boston: Houghton Mifflin.
________. (1979). The ecological approach to visual perception. Hillsdale, NJ.: Lawrence Erlbaum.
Hayek, F. A. (1967) Theory of Complex Phenomena. En Readings in the Philosophy of Social Science, edited by Michael Martin and Lee C. McIntyre, ed. MIT Press (1994)
Kuhn, T. (2012). The Structure of Scientific Revolutions. Chicago: The University of Chicago Press.
Lakatos, I. (2010). Escritos Filosóficos 1. La metodología de los programas de investigación científica. Traducción de Juan Carlos Zapatero. Madrid: Alianza Editorial.
Marr, D., T. Poggio, & S. Ullman. (2010). Vision. Cambridge, MA.: MIT Press.
Menary, Richard. (2007). Cognitive Integration. New York: Palgrave Macmillan,
Rowlands, M. (1999). The body in mind: Understanding cognitive processes. Cambridge, U. K.: Cambridge University Press.
__________. (2003). Externalism. Chesham: Acumen Publishing.
__________. (2010). The New Science of the Mind. Cambridge, MA.: MIT Press.
Wilson, R. A. (2004). Boundaries of the Mind. Cambridge: Cambridge University Press.»

“La idea de singularidad: Un ejemplo de transferencia epistemológica”
Patricio Enrique Espinoza Cárcamo
Universidad de Concepción, Chile

Desde su origen en Grecia, la filosofía y la ciencia han producido conceptos, métodos y perspectivas cognoscitivas, que no sólo han sido compartidas entre ambas, sino han extendido su influencia semántica hasta fundamentar concepciones de la realidad de vigencia más universal. Así ha sucedido entre otros, por ejemplo, con los conceptos de ‘eidos’, ‘logos’ y ‘autopoiesis’. Tales procesos de intercambio han constituido parte de los paradigmas de la racionalidad occidental sucesivamente vigentes, donde el concepto transferido va adquiriendo un carácter de emblema, expresando determinadas etapas en las transformaciones del pensamiento occidental.

Uno de esos procesos de intercambio entre ciencias y filosofía se da en la confrontación entre el desarrollo de la tecnociencia, paradigma moderno de la razón instrumental, y la creciente desconfianza ante el rendimiento de la tecnología para resolver las dificultades e incertidumbres de la sociedad y realidad contemporánea. Esto representa una situación de particular interés para la filosofía, en la medida que tiene la posibilidad de describir e investigar nuevos horizontes de densidad epistemológica que impiden la visualización de cuales serán las posibilidades efectivas para el desarrollo del pensar y praxis humano.

Es en esta perspectiva que surge el concepto de ‘singularidad tecnológica’ propuesto por el ingeniero Raymond Kurzweil, especializado en Inteligencia Artificial. Kurzweil propone que la singularidad tecnológica es “el punto en el que alguna forma de inteligencia ayudada por la tecnología adquiere la capacidad de mejorar rápidamente llegando a ser tan poderosa que hoy no podemos predecir lo que podría hacer. En ese punto, sus posibilidades podrían superar incluso el poder de nuestra imaginación».

En matemáticas se denomina ‘singularidad’ al resultado de una función en la cual su valor es infinito, indeterminado o desconocido, como ocurre por ejemplo en la función “1/x” cuando “x” toma el valor cero. En física se usa para designar un lugar en que las reglas de la física dejan de ser válidas.

En este contexto, haciendo el traspaso desde la ciencia a la filosofía, con el concepto de ‘singularidad’ se señalaría un umbral más allá del cual la racionalidad vigente quedaría “indeterminada” en una espacio de incertidumbre epistémica, debido al desconocimiento, complejidad o incomprensión de los hechos, lo que podría dar paso a una nueva lógica de lo complejo, como ocurre en el caso de la matemática de la geometría fractal.

En consecuencia, queremos describir el significado de este umbral desde dos puntos de vista, primero en un sentido negativo como rechazo a la capacidad de la racionalidad vigente para inteligir procesos de esta naturaleza y en un segundo sentido positivo, como la posibilidad de explorar una lógica de lo incierto, de lo ambiguo, de lo complejo.

La filosofía nos ofrece la posibilidad de desarrollar argumentalmente esta exploración considerando que la ‘singularidad tecnológica’ es una idea adecuada para expresar la incertidumbre en las condiciones que el desarrollo tecnológico se visualiza. Al mismo tiempo, esta idea invita a la exploración de un nuevo tipo de racionalidad que posibilite un adecuado concepto para la libertad y la actividad humana. La singularidad vista de esta forma, no tiene un contenido nuevo que ofrecer en términos cognoscitivos, sino que estaría señalando un limite o umbral del conocimiento en su operatividad, una advertencia de que ahí hay un umbral que debe reconocerse como un límite, es decir como un umbral de lo racional en la cual no se estaría cumpliendo con la expectativa de comprender y resolver los problemas que presenta la complejidad y diversidad del mundo contemporáneo.

Pretendemos describir la semántica de la idea de singularidad, como la formalización conceptual de un umbral de racionalidad en el marco epistémico contemporáneo, y como una posibilidad eficaz de liberación y resistencia a formas de racionalidad excesivamente restringidas y dominativas.

De un modo más amplio puede verse esta reflexión en el marco de transformación de las expectativas racionales para un mundo complejo e incierto desde el origen de la idea de singularidad en matemáticas y su uso y significación en la física, así como su expansión hacia otras disciplinas filosóficas abre la expectativa de aplicar su contenido hacia una antropología, una ética y una política que se pueda sostener sobre el reconocimiento de la ambigüedad y la incertidumbre.

Pierre Livet. (2003). Les Limites de la rationalité, tome 1 (avec Jean-Pierre Dupuy et Bénédicte Reynaud) La Découverte, ISSN : 978-2707126757
Kurzweil, R. (2005). “The Singularity is Near”, London: Viking Pinguin.
Taylor, Ch. (1996). Fuentes del yo. Barcelona: Ediciones Paidós Ibérica
Taylor, Ch. (1994). La ética de la autenticidad. Barcelona: Ediciones Paidós Ibérica
Taylor, Ch. (2006). Imaginarios sociales modernos. Barcelona: Ediciones Paidós Ibérica
Ladriere J.(1978) . El reto de la racionalidad. Salamanca. Ediciones Sígueme.
Zubiri X. (1999). Naturaleza, historia y Dios. Alianza Editorial.
Innerarity, D. (1992). Libertad como pasión. Pamplona: Eunsa
Innerarity, D. (2006). El nuevo espacio publico. Espasa Libros.

“Enunciados necesarios a posteriori, necesidad débil y racionalismo”
Rafael Felipe Miranda Rojas
Universidad de Concepción – CONICYT FONDECYT, Chile

El presente escrito defiende que los enunciados necesarios a posteriori propuestos por Kripke exigen una comprensión débil de la necesidad, es decir: i) existencia contingente del designatum (no existencia en toda situación contrafáctica) y ii) dependencia racionalista en principios lógicos a priori, particularmente el principio de diferencia y el principio de identidad. Si esto es correcto, la principal consecuencia es que los enunciados necesarios a posteriori corresponden a instancias de dichos principios lógicos. Contrario al racionalismo, esto no exige que dichos enunciados sean a priori, pues su justificación requiere información empírica.
Boghossian & Peacocke (2000, 1- 11) afirman que una proposición a priori es aquella cuya verdad puede ser conocida sin apelar a alguna justificación que dependa de la experiencia del sujeto cognoscente S. Dicha comprensión no descarta que el acceso a la verdad de una proposición a priori si requiera de la experiencia de algún sujeto S, pero sin que dicho acceso forme parte de la justificación de la verdad de tal proposición . Por su parte, una proposición a posteriori sí incluye en la justificación de su verdad cierta experiencia del sujeto cognoscente. Sin embargo, un enunciado necesario a posteriori debe estar justificado a partir de cierto dato empírico, y éste dato forma parte de un estado de cosas del mundo actual ¿Cómo puede un estado de cosas del mundo actual justificar la necesidad del enunciado en cuestión? Casos paradigmáticos son “Héspero es Fósforo” y “Agua es H2O”. Este escrito argumenta que una vía para mantener tanto el carácter necesario como a posteriori de estos enunciados es sostener que corresponden a casos de necesidad débil. Si esto es correcto, el costo es que tales enunciados no son verdaderos en toda situación contrafáctica, sino sólo en aquellos mundos posibles en que el objeto designado exista, o la clase natural tenga alguna instancia.
En 1972, Saul Kripke introdujo la noción de necesario a posteriori como una legítima posibilidad epistémica – metafísica. Para llegar a esa propuesta, planteó en el inicio de sus conferencias la siguiente distinción:
Qué importancia tiene la distinción modal puede – debe, y qué quiere decir que algo que puede ser conocido a priori, lo sea en efecto a posteriori, es un punto que Kripke no desarrolla en detalle. En efecto, el tópico que le preocupa a Kripke es en particular la viabilidad de enunciados necesarios a posteriori ¿Depende ello de que algo que puede ser conocido a priori, sea conocido por un sujeto S a posteriori? En este escrito se pretende defender que sí. La importancia de sostener esto radica en que, si es correcto que un enunciado necesario a posteriori es comprendido como un enunciado del caso que puede, pero no debe ser conocido a priori, constituye una propuesta racionalista débil de Kripke. Del mismo modo, los casos de enunciados necesarios a posteriori debiesen tener como designatum un ente contingente.
El ejemplo kripkeano evidencia estas tesis intuitivas, a saber, la computadora que calcula:
Kripke sostiene que, intuitivamente, la creencia que N es primo no está justificada a priori, porque nuestro acceso a dicha creencia no es a priori. De este modo, rechaza la distinción entre acceso a cierto conocimiento – justificación de dicho conocimiento. Si nuestro acceso es a posteriori, nuestro conocimiento es a posteriori. Esto refleja que la distinción puede – debe apunta a casos de conocimiento como el dado en el ejemplo que, sin ser conocido actualmente a priori, puede serlo: puede haber un sujeto S que conozca a priori que cierto número N es primo. La distinción puede – debe constituye la base de la propuesta de enunciados necesarios a posteriori. Sin explicitarlo, Kripke sugiere evidentemente que estos enunciados corresponden al tipo de enunciados que pueden, pero no deben ser conocidos a priori. Entre las interrogantes que deja esta tesis intuitiva, es si Kripke sostendría que todo enunciado a posteriori puede ser conocido a priori, por un sujeto S con capacidades superiores a las humanas (v.gr. Dios).
Kripke establece la no co – extensividad entre a priori – necesario debido a que la noción de necesidad que interesa al autor es metafísica. Son dos planos distintos, epistémico y metafísico. Esto le permite, en primer lugar, sostener que la necesidad no depende de que algún sujeto S conozca dicha verdad:
Esta última frase es importante, porque es la que permite sostener la distinción entre plano epistémico – metafísico. De otro modo, la separación es imposible, y la ulterior propuesta de enunciados necesarios a posteriori (y enunciados contingentes a priori) no es viable.
Aplicado primero a objetos singulares, Kripke comprende por necesidad metafísica débil aquella que permite sostener la identidad de un objeto o sólo en mundos posibles o situaciones contrafácticas en que tal objeto o exista. Evita discutir qué valor de verdad tendría un enunciado de identidad en una situación contrafáctica en que dicho objeto o no exista. La distinción es central en casos de objetos que son plausiblemente considerados como contingentes, o que no existen en al menos un mundo posible. Kripke enfrenta sucintamente este problema al iniciar su tercera conferencia, pero con cierto detalle en su escrito previo “Identity and Necessity”. En su tercera conferencia, respecto del enunciado “Héspero es Fósforo” sostiene que el que se comprenda como un enunciado necesariamente verdadero:
La necesidad débil no responde, por tanto, si el enunciado de identidad “Héspero es Fósforo” es verdadero, falso o ni verdadero ni falso en las situaciones contrafácticas que el objeto o no exista. Si bien el que la noción de verdad necesaria en este caso deba ser restringida a las situaciones en que el objeto exista es desde ya un problema, toda vez que verdad necesaria parece exigir verdad en toda situación contrafáctica, no es éste el único aspecto controversial. Un análisis distinto, que Kripke reconoce como correcto, parece derivar en que enunciados necesarios débiles no son, ni pueden ser, enunciados necesarios a posteriori. Centrado en el ejemplo de Héspero, Kripke (Idem., 110) enuncia:
Así, este enunciado puede ser comprendido como a priori y contingente, un caso del esquema propuesto por el bi – dimensionalismo de “si p, entonces actualmente p”. Este problema afecta también las identidades teóricas, tal vez de modo más grave, siendo los casos paradigmáticos de enunciados necesarios a posteriori.
En “Identity and Necessity”, Kripke especifica cómo la noción de necesidad débil puede ser una vía para descartar enunciados de identidad contingentes. Para ello, plantea que la ley de sustitutividad de los idénticos (law of substituvity of identity), a saber: que si x = y y x tiene la propiedad F, y tiene la propiedad F; que esta ley, relacionada con la necesidad de la identidad de un objeto consigo mismo, □ x = x, permitiría sostener la necesidad de la ley de sustituvidad de los idénticos. Kripke acepta que esta tesis intuitivamente correcta, la necesidad de la identidad, puede ser blanco de críticas, si lo que pretende es sostener que todo es necesariamente idéntico a si mismo (everything is necessarily self identical). La necesidad metafísica es de este modo debilitada tal que, si x existe, x es idéntico a sí mismo. Esto sería intuitivamente correcto, si se acepta que, si x no existe, x no es idéntico a si mismo, lo que parece evidentemente correcto. L a necesidad débil exige, por lo tanto, la existencia actual del objeto nombrado. Efectivamente, una de las razones principales por las que Kripke la introduce, es para evitar las cuestiones que presentan los casos de objetos que no existen en el mundo actual, o el caso de los mera possibillia, objetos meramente posibles.

Bibliografía básica.
Chalmers, D. (2006b). “Two-Dimensional Semantics”, in Oxford Handbook of Philosophy of Language, E. Lepore and B. Smith (eds.), Oxford: Oxford University Press, pp. 575–606.
Hughes, Christopher (2004). Kripke: Names, Necessity, and Identity. Oxford: Clarendon.
Kaplan, D. (1977) Demonstratives. Ms., UCLA, Los Angeles, CA y Kaplan, D. (1989) “Demonstratives: An Essay on the Semantics, Logic, Metaphysics, and Epistemology of Demonstratives and Other Indexicals.” En J. Almog, J. Perry, and H. Wettstein (eds.), Themes from Kaplan, Oxford: Oxford University Press. Pp. 481 – 563.
Kripke, S. (1980). Naming and Necessity, Cambridge, MA: Harvard University Press.
Putnam, H. (1975), Mind, Language, and Reality, Philosophical Papers Vol. 2, Cambridge: Cambridge University Press.
Salmon, N. (1981): Reference and Essence. Princeton: Princeton University Press y Salmon, N. (2005) Prometheus Books. New York.
Soames, Scott (2002): Beyond Rigidity: The Unfinished Semantic Agenda of Naming and Necessity, New York: Oxford University Press.
Soames, S.(2005).Reference and Description: The Case against Two-Dimensionalism, Princeton: Princeton University Press.
Stalnaker, R. (1997). “Reference and Necessity” A Companion to the Philosophy of Language. Oxford, Blackwell. pp. 534 – 554.

“Tiempo, cambio y el problema de congelar relojes”
Rolando Esteban Núñez Pradenas
Universidad de Buenos Aires – ANPCyT, Argentina

Parece ser de común acuerdo que las nociones de cambio y tiempo están directamente entrelazadas. Sin embargo, la naturaleza de esta relación no ha estado exenta de discusión filosófica. En primera instancia, todo cambio parece involucra una noción de temporalidad y del mismo modo, toda noción de tiempo involucra cambio. Dentro de esta línea el tiempo es una consecuencia, un efecto de los eventos, el movimiento y el cambio son la raíz del tiempo. Cambio y tiempo no son lo mismo, pero sin cambio no podríamos concebir el paso del tiempo. El tiempo depende de las cosas, sus movimientos y sus cambios; y son los sujetos de conocimiento los que perciben el cambio, por lo que el tiempo está en cierta medida ligado a los individuos que lo perciban. Algunos filósofos como McTaggart afirman incluso directamente que no podría haber tiempo sin cambio.

Sin embargo, Sidney Shoemaker, en su artículo de 1969 titulado “Time Without Change” presenta un argumento con la finalidad demostrar que la conexión entre tiempo y cambio no es necesaria. La idea básica, con algunas modificaciones para nuestro trabajo, es la siguiente. Pensemos la existencia de un universo compuesto por 3 zonas o planetas. En este universo cada una de las zonas sufre de un raro fenómeno cada cierto tiempo en el cual la zona completa se congela por 1 año. El fenómeno de congelamiento implica que dentro de la zona congelada no se produce cambio alguno. En la zona A el congelamiento ocurre cada 3 años; en la zona B, cada 4 años; y en la zona C cada 5 minutos. Si seguimos la secuencia de congelamiento, notaremos que en el año 59 los tres planetas deberían estar congelados por un año. Tomando en consideración esto, Shoemaker afirma que podemos entonces pensar en la existencia de tiempo sin cambio, pues los habitantes de este mundo tendrían buenos motivos para considerar que aún cuando no hubo cambio alguno en el universo, el tiempo siguió su curso.

En este trabajo analizaremos el caso de las tierras congeladas de Shoemaker con la finalidad de mostrar que, desde las consideraciones de la ciencia sobre el tiempo, no es cierto que los habitantes de este peculiar universo tienen buenos motivos para pensar en tramos de tiempos sin cambio. Para esto presentaremos un caso adicional: Debido al accionar de un malvado Imperio Intergaláctico, una de las zonas es destruida. Si esto es así, sostenemos que el resto de los habitantes del este universo tendrán que modificar la manera en la que consideran el tiempo eliminando los tramos en los que no hay cambio, es decir, eliminando los años en donde sólo la zona desaparecida se congela, debido a que la magnitud temporal en esos instantes carece de propiedades cronométricas. En nuestro ejemplo también se agrega una zona adicional cuyo periodo de congelamiento coincide con el de otra zona, con lo cual no habría motivo para postular que ambos se detienen. La idea principal está en presentar cómo las consideraciones sobre el tiempo de los habitantes de este universo no solo no necesariamente tienen que postular la existencia de tramos de tiempo sin cambio, sino que también tendrían buenos motivos para cambiar la manera en la que miden el tiempo. A partir de esto se desprenden consideraciones tanto epistemológicas como metafísicas sobre la relación entre tiempo y cambio.

Adicionalmente, analizaremos como en nuestro mundo tenemos casos en los que la manera en la que medimos el tiempo no se dirime del modo en que Shoemaker intenta demostrar en su artículo. Según el ejemplo de Shoemaker, podríamos perfectamente considerar que todos los años hay un 29 de febrero, pero que sólo cada 4 años hay cambio en esa fecha.

Bibliografía
Dowe, P. 2000. Physical Causation, Cambridge University Press, Cambridge.
Dowe, P. 2005. “Retrocausación” en Enrahonar, 37 : 101-111.
Falk, D. 2008. In Search of Time: The History, Physics, and Philosophy of Time. Thomas Dune Books.
Lakoff, G. Johnson, M. 2009. Metáforas de la vida cotidiana. Cátedra.
Lakoff, G. Johnson, M. 1999. Philosophy in the Flesh. Basic Books.
Madulin, T. 2012. Philosophy of Physics: Space and Time. Princeton University Press.
McTaggart, J. E. 1908. “The Unreality of Time”, en Mind, New Series, Vol. 17, nº 68 (Oct., 1908), pp. 457-474. Oxford University Press en representación de Mind Association.
Oaklander, L.N. (2004) The Ontology of Time, Prometeus Books.
Penrose, R. 2006. El camino a la realidad. Debate.
Price, H. 1996. Time´s Arrow and Archimedes´s Point, Oxford University Press.
Reichenbach, H. 1999. The Direction of Time. Dover publications.
Shoemaker, S. (1969). “Time Without Change,” en Journal of Philosophy 66 , pp. 363-381.

“Uma aplicação dos números transreais à Física”
Walter Gomide
Universidade Federal de Mato Grosso/Universidade Federal do Rio de Janeiro (HCTE), Brasil

Resumo: Os números transreais consistem em uma generalização dos números reais Basicamente, a novidade introduzida pelos transreais é a permissão da divisão por zero, o que não é aceito no âmbito dos números reais. Neste trabalho, a partir da interpretação que Hugh Everett III deu ao princípio de superposição na física quântica, busca-se uma aplicação dos transreais no universo físicoPara se obter os números transreais RT dos números reais, primeiramente são introduzidos os seguintes números (ver Anderson, [2008]):

a) 1/0 = ;

b) -1/0 = -.

Desta forma, chegamos ao domínio dos números reais estendidos:

c) RE = R  {-, }.

A partir dos números reais estendidos, chega-se ao números transreais mediante a introdução da constante , definida da forma seguinte:

d) 0/0 = .

Desta forma, os transreais RT são definidos como:

e) RT = RE  {}.

A constante  (denominda por Anderson de nullity) ocupa uma posição fora da reta representativa dos números reais estendidos RE = R  {-, }.

Espaços transmétricos:

Podemos também definir uma função , chamada transmétrica, que satisfaz as seguintes condições (ANDERSON, ibidem):

1) (a,b) = (b,a)

2)  ((a,b) < 0).

3) (a,b) = 0 sse a=b.

 é definida em (RT)2 admite números transreais como valores.

2) A tese da Mecânica Ondulatória Universal.

No The Many-Worlds Interpretation of Quantum Mechanics, Hugh Everett III apresenta sistematicamente sua interpretação da mecânica quântica baseada no conceito de “mundos possíveis”. Tal interpretação (que, posteriormente, será exposta) toma por base o postulado de que há uma mecânica ondulatória universal e de que todos os paradoxos presentes na mecânica quântica podem ser resolvidos por meio deste postulado.

Os “mundos possíveis” entram na teoria de Everett quando, ao estado final ’ do sistema composto S + O, aplica-se o princípio de superposição, isto é:

’ S + O =  i aii iO […i],

em que as funções  i  iO[…i] são soluções lineares da equação diferencial (ver Everett, op. cit, p.65)

 S + O /t = U S + O.

Segundo Everett, para cada solução linear  i  iO[…i] há um observador Oi que percebe o sistema S se movimentando conforme a equação:

 i  iO[…i] /t = Ui iO […i]

No momento em que o observador O interage com o sistema S, uma família de observadores Oi surge, cada um destes situado em um mundo Wi em que o sistema S se comporta de forma clássica e determinística Sob tal enfoque, podemos dizer que cada observador Oi é um subsistema do sistema S + O. Quando o sistema S + O passa do estado  para ’, então temos a transformação de S + O em Si + Oi; aos sistemas Si que se movimentam conforme a equação:

 i  iO[…i] /t = Ui iO […i],

Everett denominou de sistemas-objeto relativos (relativos ao mundo Wi em que se encontra o observador Oi).

A intenção desta palestra é avaliar, a partir do conceito de espaço transmétrico, a distância entre os mundos possíveis de Everett

Referências Bibliográficas:
1) ANDERSON, J.A.D. “Perspex Machine XI: Topology of the Transreal Numbers”, [2008];
2) EVERETT, H. The Many-Worlds Interpretation of Quantum Mechanics, [1957].

“Problemas de ontología y causalidad en la física contemporánea”
Wilfredo Quezada Pulido, Luis Pavez Flores
Universidad de Santiago (USACH), Chile

Normalmente la caracterización de la ontología de la RE pone a su base eventos o sucesos. Sin embargo, como han mostrado Salmon (1984, etc.) y Dowe (1999, 2000, etc.) la caracterización con mayor alcance explicativo presupone procesos causales. Ya que lo causal, en una primera aproximación, está determinado relativistamente por el respeto al límite c de la velocidad de la luz, la ontología relativista debe hacer espacio a otras entidades procesuales no causales que efectivamente violan dicho límite y que Salmon y Dowe llamaron pseudoprocesos o PSPs (Dowe 2000, Quezada & Pavez 2010, etc.). Sin embargo, la ontología de base de los PSPs resulta estar sostenida en procesos causales no superlumínicos que actúan como su causa común. De esta manera, la escena ontológica relativista admite que todo puede ser descrito procesualmente –bajo una cierta definición de proceso – pero, en su caracterización física, toda entidad parece descansar o supervenir a los procesos causales que aportan la base común. Una cuestión fundamental que se plantea aquí entonces es si se cuenta con un rasgo metafísico –esto es, no físico- que distinga lo causal de lo no causal en un diagrama relativista. Dowe propone por ejemplo que la base para la superveniencia sea dada por la identidad o genidentidad de todo lo procesual y, por ende, su distinción abraza todo lo pseudoprocesual. En esta contribución examinaremos críticamente esta distinción y propondremos una solución ontológica alternativa basada en la idea de “grados de identidad”.

Por otra parte, en relación a la física cuántica, enfrentamos un dilema ontológico evidente pues sabemos que las interpretaciones causalistas parecen ser incompatibles con las interpretaciones clásicas del formalismo cuántico. Esta disputa se vuelve particularmente aguda en relación al problema de entrelazamiento cuántico planteado por Einstein, Podolski y Rossen el año 1935, que después de muchos debates al interior de la comunidad científica y filosófica se logró parcialmente estabilizar con los trabajos de Bell (1964) y luego con los resultados experimentales de Aspect (1981). Los resultados de Aspect dejan abierta la cuestión acerca de si los fenómenos tipo Bell presentan una base ontológica procesual y por tanto presuponen una causa común, o si simplemente se debe admitir no-localidad en ellos, en el sentido de que una causa común no es suficiente como explicación de las correlaciones cuánticas entre los distintos laboratorios. Esta consecuencia desde luego implicaría una caracterización ontológica alternativa a la relativista y abriría espacio a otra fundada en la distinción superlumínico vs. no superlumínico (Maudlin 1987). En esta parte del presente trabajo exploraremos si nuestra hipótesis de grados de identidad, que sirve para ajustar la ontología relativista, puede ser extendida para aplicar a los fenómenos Bell o, de lo contrario, si se debe proponer una hipótesis alternativa como aquella propuesta por Bohm (1952).

BIBLIOGRAFÍA
• Bell, J. (1964) “On the Einstein, Podolski Rossen Paradox”, Physics, 1, pp.195-200.
• Bohm, D. (1952), “A Suggested Interpretation of the Quantum Theory in Terms of Hidden Variables, I and II”, Physical Review, 85, pp. 166-193. Reprinted in Wheeler and Zurek (1985), pp. 369-396.
• Butterfield, J. (1989), “A Space-Time Approach to the Bell Inequality”, in Cushing and McMullin, eds., (1989), pp. 114-144.
• Cartwright, N. (1988), “How to Tell a Common Cause: Generalizations of the Conjunctive Fork Criterion”, in Fetzer, J. ed. (1988), pp. 181-188.
• Dowe, P. (2000), Physical Causation, Cambridge University Press.
• Einstein, A., B. Podolsky and N. Rosen (1935), “Can Quantum Mechanical Description of the World Be Considered Complete?”, Physical Review, 47, pp. 777- 780. Reimpreso en Wheeler and Zurek (1985), pp. 138-141.
• Maudlin, T. (1995), Quantum Non-Locality and Relativity, Oxford Blackwells.
• Quezada, W. y Pavez, L. (2012) “Causalidad, pseudocausalidad y medición en física”, Revista de Filosofía, Universidad de Chile, vol. LXVII, pp. 251-268.
• Reichenbach, H., (1956), The Direction of Time, University of California Press.
• Salmon, W. (1984), Scientific Explanation and the Causal Structure of the World, Princeton University Press.

COMUNICACIONES.

“Sistemas de Representaciones Implícitas en la Epistemología Profesional Docente de Profesores de Ciencias Experimentales.”
Alejandro Andrés Rocha Narváez, Ainoa Marzabal Blancafort
Universidad Católica de la Santísima Concepción, Chile

La enseñanza de las ciencias experimentales es un factor decisivo para el desarrollo humano en la denominada sociedad del conocimiento. Pero se trata de una actividad no exenta de dificultades; mismas que, en los estudios consagrados al pensamiento del profesorado, suelen ser interpretadas como obstáculos.
En la investigación aquí presentada, se identificaron sistemas de representaciones mentales implícitas en los profesores de ciencias, que estarían obstaculizando su desarrollo profesional hacia el cambio didáctico y la innovación; ambas, condiciones deseables para un profesorado capacitado ante los grandes desafíos impuestos por las nuevas tendencias, en la ola de diversificación y complejidad creciente que caracteriza a la actual sociedad del conocimiento.
La identificación de estos sistemas de representaciones implícitas ha requerido la construcción de un modelo teórico de epistemología profesional docente, que organiza las representaciones mentales de los profesores (coincidentes con componentes de distintos modelos didácticos de enseñanza de las ciencias) en una triple dimensión del discurso profesional docente (Cuellar, 2010) y tres niveles de accesibilidad a la conciencia (Pozo y Gómez Crespo, 1998).
A partir de dichos componentes, se diseñó una investigación cualitativa, de tipo exploratorio, interpretativo y transversal, basada en el estudio de ocho casos (profesores de ciencias experimentales), con una recogida de datos en tres instancias y análisis por triangulación.
Los resultados de la investigación revelan que, tanto las representaciones mentales explícitas como las acciones de los profesores de ciencias experimentales, estarían orientadas por la influencia subyacente de estos sistemas de representaciones implícitas, organizados en determinadas teorías de dominio, a su vez, agrupadas en cuatro teorías implícitas claves. Estas teorías implícitas son: la creencia en que una didáctica basada en el aprendizaje significativo es eficaz para el logro de aprendizajes en ciencias; la suposición de que los criterios de selección de contenidos, actividades y formas de evaluación que estimulan la autorregulación de los aprendizajes en los estudiantes, son extremadamente difíciles de realizar; la intuición de que el aprendizaje es posible sólo cuando el profesor es quien dirige el proceso educativo y el estudiante acata dicha dirección, y la predominancia, entre los profesores de ciencias, de concepciones epistemológicas basadas en el realismo, el empirismo y el inductivismo.

BIBLIOGRAFÍA
Adúriz-Bravo, A. (2005). Una introducción a la naturaleza de la ciencia. La epistemología en la enseñanza de las ciencias naturales. Buenos Aires: Fondo de Cultura Económica.
Cuellar, L. (2010). La historia de la química en la reflexión sobre la práctica profesional docente. Un estudio de caso desde la enseñanza de la Ley Periódica. (Tesis de doctorado). Pontificia Universidad Católica de Chile. Santiago de Chile. Recuperado de: http://www7.uc.cl/sw_educ/educacion/grecia/plano/html/pdfs/biblioteca/DOCTOR/TesisDocLC.pdf (24/01/2012).
Astolfi, J.P. (1994). El trabajo didáctico de los obstáculos, en el corazón de los aprendizajes científicos. Enseñanza de las ciencias, 12 (2), 206-216. Recuperado de: www.raco.cat/index.php/ Ensenanza/article/download/21359/94704‎ (02/04/2012).
López-Vargas, B.I. y Basto-Torrado, S.P. (2010). Desde las teorías implícitas a la docencia como práctica reflexiva. Educación y educadores, 13, (2), 275-291. Recuperado de: http://redalyc.uaemex.mx/ src/inicio/ArtPdfRed.jsp?iCve=83416998007 (10/02/2012).
Martínez M., M. (2010). Bases de la epistemología a principios del siglo XXI. Revista de investigación en psicología, 13, (1), 173-196. Recuperado de: http://sisbib.unmsm.edu.pe/bvrevistas/ investigacion_psicologia/ v13_n1/pdf/a11.pdf (11/02/2012).
Pozo, J.I. y Gómez Crespo, J.A. (1998). Aprender y enseñar ciencia. Del conocimiento cotidiano al conocimiento científico. Madrid: Morata.

“El problema de la variación semántica y la discusión entre composicionalistas y pragmatistas. Una alternativa al proposicionalismo semántico”
Alfonso José Pizarro Ramírez
Universidad de Chile, Chile

En el artículo se expone la visión pragmática expuesta por Charles Travis como una salida a la cuestión de la sensibilidad al contexto en la fijación de las condiciones de verdad en las oraciones, en oposición a la visión tradicional, o bien, composicional, del lenguaje. Por una parte, la visión tradicional comprendería tres momentos en la resolución del significado de una oración: un ámbito pre-semántico, donde se resolverían las ambigüedades y reglas de uso de indexicales; un ámbito semántico, donde se resolverían las condiciones de verdad asociadas a la oración y partes de esta; y uno pragmático, en donde, teniendo lo anterior resuelto, se resolverían las implicaturas, etc. La semántica es tanto el estudio de lo que las palabras significan como de, centralmente, las condiciones para su verdad. Por otra parte, la visión pragmática de Charles Travis disolvería la distinción entre semántica y pragmática, sosteniendo que el contexto de uso de la oración fijaría las condiciones de verdad. En una primera parte del artículo expongo históricamente la concepción tradicional que encuentra sus orígenes en Frege, y como se desarrolló la discusión de la fijación de condiciones de verdad y la relevancia del contexto posteriormente por Grice, de quién surge la necesidad de la inferencia pragmática.

Una vez establecida la cuestión, daré cuentas de cómo es que esta visión depende de una visión proposicionalista de la semántica, es decir, que basta con la semántica, previo al contenido pragmático, para fijar el contenido proposicional expresado (Clapp 2012). Robyn Carston (2007), buscando defender la distinción entre semántica y pragmática (que posturas como la de Charles Travis buscan disolver), defenderá un tipo de semántica que no expresa condiciones de verdad, sino más bien, esquemas proposicionales.

En contraste de esto, expondré la versión más conservadora de Cappelen y Lepore, de la necesidad de concebir a la semántica de manera proposicional. No obstante, alegaré que, por una parte, la solución propuesta por Cappelen y Lepore es poco intuitiva y económica, y por otra, aun así habría espacio para variación semántica (esto es, en sus condiciones de verdad) hasta que se incorporen todos los elementos contextuales de la proferencia: siguiendo a Travis, es necesario tener presente la comprensión específica según la cual se utilizaron las palabras en la ocasión de la proferencia, o bien, el contenido proposicional no estaría comunicado hasta el proceso de inferencia pragmática de la información relevante (Carston 2007)

Bibliografía:
Cappelen, H. y Lepore, E., (2006) The Myth of Unarticulated Constituents, (disponible línea en http://hermancappelen.net/docs/Perry7.pdf )
Carston, Robyn (2007) Linguistic communication and the semantics/pragmatics Distinction, revista Synthese (2008) 165:321–345
Clapp, Lenny (2012) Is even thought compositional? En Philos Stud (2012) 157:299–322
Frege, G. (1974), Escritos Lógico-semánticos, ed. Tecnos.
Grice, H. P., (1975) Logic and Conversation, Syntax and semantics 3: Speechs arts, Cole et al. “Logic and conversation”, pp. 41-57
Perry, John, (1993) The Problem of the Essential Indexical, ed. John Perry, pp. 205-218
Travis, Charles (1978) Pragmatics, en Bob Hale & Crispin Wright (eds.), A Companion to the Philosophy of Language. Blackwell (1997)

“El Aspecto Normativo de las Leyes Fundamentales de la Matemática en el A System of Logic de John Stuart Mill”
Ana Pía León Miranda
Universidad Andrés Bello, Chile

El objetivo de este trabajo es analizar la postura de John Stuart Mill en relación a la naturaleza de las leyes matemáticas fundamentales en A System of Logic. En la primera parte de nuestro escrito, mostraremos los objetivos de esta monumental obra, los cuales se emplazan como una toma de posición contraria respecto de la escuela alemana que propugna la existencia de verdades independientes de la experiencia, susceptibles de ser conocidas por el hombre a través de la razón o la intuición, sean tales nociones innatas o externas a él. Para Mill, todo conocimiento surge y se funda en la experiencia, sin embargo, sabe que si su pretensión es demostrar tal consigna, debe detenerse en aquel tipo de saber que por su naturaleza parece tener una justificación independiente del mundo fáctico: la matemática. Así, en la segunda parte del trabajo nos avocaremos a analizar aquellos pasajes en los cuales Mill parece abogar por una caracterización heurístico-normativa de las proposiciones elementales de esta ciencia, que torna prescindible la necesidad de apelar a una justificación a priori de ellas.

Referencias.
Bloor, D. (1998), Conocimiento e imaginario social, Gedisa, Barcelona.
Frege, G. (1972), Los fundamentos de la aritmética, Laia: Barcelona.
Kenny, A. (1997), Introducción a Frege, Cátedra: Madrid.
Kitcher, Ph (1998), “Mill, mathematics, and the naturalist tradition”, en Skorupski, J (ed.),
The Cambridge Companion to Mill, Cambridge University Press, Cambridge, pp. 57-111.
McCloskey, J. (1971), John Stuart Mill. A Critical Study, London: Macmillan St Martin’s.
Mill, J. (1963-1991), “A System of Logic Ratiocinative and Inductive, Being a Connected View of the Principles of Evidence and the Methods of Scientific Investigation”(Books I-III), en Robson John (ed.), The Collected Works of John Stuart Mill, Volumen VII, University of Toronto Press, Toronto; Routledge and Kegan Paul: London. (1843, 1ed)
Mill, J. (1963-1991),“Autobiography”, en Robson John (ed.), The Collected Works of John Stuart Mill, Volumen I, University of Toronto Press, Toronto; Routledge and Kegan Paul: London.
Mill, J. (1963-1991),“An Examination of Sir William Hamilton’s Philosophy”, en Robson John (ed.), The Collected Works of John Stuart Mill, Volumen IX, University of Toronto Press: Toronto; Routledge and Kegan Paul: London. (1865, 1ed)
Mill, J. (1917), Sistema de Lógica inductiva y deductiva, Daniel Jorro: Madrid.
Skorupski, J. (1989), John Stuart Mill, T.J Press: Cornwall.
Skorupski, J. (1998a), “Mill on language and logic”, en Skorupski, J (ed.), The Cambridge Companion to Mill, Cambridge University Press: Cambridge, pp. 35-56.
Skorupski, J. (1998b), “Introduction: the fortunes of liberal naturalism”, en Skorupski, J. (ed.), The Cambridge Companion to Mill, Cambridge University Press: Cambridge, pp. 1-34.
Wittgenstein, L. (2000), Tractatus Logico Philosophicus, Alianza Editorial: Madrid.
Wittgenstein, L. (2003), Sobre la Certeza, Gedisa: Barcelona.

“Epistemología Cognitivavista desde R. Giere”
Carlos Arturo Hernández
Universidad Libre, Colombia

Pensar la ciencia en términos de cognición distribuida, según Giere, permite diluir otra dicotomía, a saber, el rol de las matemáticas o idealizaciones platónicas, y el rol de los métodos experimentales y los instrumentos de observación. Así, el cálculo cartesiano actúa como una fuente de representaciones externas que se pueden manipular colectivamente, e igualmente, los nuevos instrumentos de observación extienden nuestros sistemas cognitivos, para adquirir nuevo conocimiento empírico del mundo. La apuesta que hace Giere es que al comprender la cognición distribuida tenemos elementos para pensar en la estructura de las teorías científicas como un rasgo de las representaciones externas, que son una extensión de nuestras mentes. En ese sentido se habla de propiedades representacionales de vehículos científicos, culturales, sociales e individuales, sobre los que se ejecutan los procesos cognitivos. Son procesos que hacen de nuestra mente un híbrido, un resultado de procesos históricos, científicos, personales y evolutivos. Se ha sugerido en este trabajo que nuestras mentes, y por supuesto, que las mentes de los científicos, están constituidas por extensiones computacionales de simbolización, e incluso como el resultado de computaciones analógicas (presimbólicas) y simbólicas (en términos de modelos).

Bibliografía
Clark, A., (1999): Being there. Putting Brain, Body, and World Together Again, The MIT Press, Cambridge, Massachusetts. Trad. Castellano, 1999, Estar ahí. Cerebro, cuerpo y mundo en la nueva ciencia cognitiva, Paidós.
Clark, A. y Chalmers, D., (1998): “The Extended Mind”. Analysis, 58.
Giere, R., (1988): Explaning Science. A cognitive Approach. Trad. Cast. de Claudia Elisa
Gidi Blanchet. México: Consejo nacional de ciencia y tecnología, 1992.
, (2007): “Distribuited Cognition without Distribuited Knowing”, in Social Epistemology, Vol. 21, N. 3, July-september, 2007, pp. 331-320.
Knorr-Cetina, K., (1999): Epistemic Cultures. How the Science made Knowledge,
Cambridge, Harvard, University Press.
Quine, O. V., (1969): La relatividad ontológica y otros ensayos, Madrid, Tecnos, 1974.
Rodríguez Alcázar, F. J., (2000): Ciencia, valores y relativismo. Una defensa de la filosofía de la ciencia, Editorial Comares.
Guerrero, G., (2007): Introducción a la filosofía de la ciencia. Documentos de trabajo,
Departamento de filosofía, Universidad del Valle, febrero de 2007.
Hutchins, E., (1995): Cognition in the Wild, Cambridge
Newell, A., (1987): “Sistemas de símbolos físicos”, en Perspectivas de las ciencias cognitivas, Donald Norman (ed.), Paidós, Barcelona, 1987.
Pylyshyn, Z., (1988): Computación y conocimiento, Editorial Debate, Madrid, S.A., 1988.
Fodor, J., (1975): El lenguaje del pensamiento, Ed. Cast. Alianza Editorial, Madrid, 1984.
, (1987): “Las actitudes proposicionales”, en Filosofía de la mente y ciencias cognitivas, Eduardo Rabossi (compilador), Ediciones aidós Ibérica, 1995.
Perner, J., (1991): “El concepto de representación” (capítulo), en Comprender la mente representacional, Ediciones Paidós, 1994.
Gardner, H., (1988): Las ciencias cognitivas. Perspectiva histórica”, en La nueva ciencia de la mente. Historia de la revolución cognitiva, Ed. Paidós, 1988.
Martínez-Freire, P., (2006): “El enfoque enactivo en las ciencia cognitivas”, en rev. Ludus Vitalis. Revista de filosofía de las ciencia de la vida, Vol. XIV / num.26 / 2006.

“Evolución de los criterios para la clasificación de los elementos químicos. Perspectivas ontológicas y epistemológicas”
Carlos Rodolfo Vergne, María Eugenia Márquez
Universidad Nacional de Cuyo. Instituto Tecnológico Universitario, Argentina

El objetivo del trabajo es mostrar el desarrollo histórico de los distintos criterios utilizados para clasificar los elementos en la química moderna, y sus compromisos ontológicos y epistemológicos. La tabla periódica representa el sistema de clasificación natural más importante de la ciencia en su conjunto. El descubrimiento de elementos nuevos, el desarrollo de la teoría atómica y la mecánica cuántica, han favorecido el surgimiento de distintos criterios para ordenar el sistema de elementos. Cada uno de ellos está asociado al desarrollo de la teoría química, e implica distintas conceptualizaciones de “elemento” o “sustancia química”. Desde la perspectiva epistemológica, se puede advertir la tensión entre las relaciones entre las teorías de la física y de la química y el problema del reduccionismo o autonomía entre las dos ciencias.

Bibliografía
1. Camacho, Johanna; Quintanilla, Mario; Cuéllar, Luigi y García, Álvaro (2008) Aplicación del modelo de Stephen Toulmin al estudio de la evolución del concepto de ley periódica. III Jornadas D´Historia de la Ciència I Ensenyament, v. 1, 119-126.
2. Fernández, Eduardo J. y Fernández, Julio (2012) El icono de los químicos: la tabla periódica de los elementos. An. Quím. 108 (3), 314–321.
3. Garay Garay, Fredy; Gallego Badillo, Rómulo y Pérez Miranda, Royman (2006) Un análisis histórico-epistemológico de los trabajos de Mendeleiev sobre la periodicidad química. TEA, n. 20, 110-123.
4. Gracia Mora, Jesús (2006) Tabla periódica. ¿Periodicidad? México, UNAM.
5. Kaji, Masanori (2002) D. I. Mendeleev´s concept of chemical elements and the principles of chemistry. Bull. Hist. Chem. v. 27, n. 1, 4-16.
6. Labarca, Martín y Zambón, Alfio (2013) Una reconceptualización del concepto de elemento como base para una nueva representación del sistema periódico. Educación Química, 24 (1), 63-70.
7. Ostrovsky, V. N. (2001) What and how physics contributes to understanding the periodic law. Foundations of Chemistry, v. 3, 145-182.
8. Peña Hueso, José Adrián; Ramírez Trejo, Raúl y Esparza Ruiz, Adriana (2006) La tabla periódica nos cuenta su historia. Cinvestav, 58-71.
9. Pérez Afonso, Ricardo (1997) De Mendeleiev a Thomson: la clasificación de los elementos. Seminario «»Orotava»» de Historia de la Ciencia, año III, 449-476.
10. Restrepo, Guillermo (2004) Los elementos químicos, su matemática y relación con el sistema periódico. Bistua, 91-98.
11. Scerri, Eric (2009) Selected papers on the periodic table. Londres, Imperial College Press.
12. Scerri, Eric (2008) El pasado y el futuro de la tabla periódica. Este fiel símbolo del campo de la química siempre encara el escrutinio y el debate. Educación química, 234-241.
13. Scerri, Eric (2008) The role of the triads in the evolution of the periodic table: past and present. Journal of Chemical Education, 85 (4), 585.
14. Scerri, Eric (2007) The periodic table. Its story and its significance. New York, Oxford University Press.
15. Scerri, Eric (1998) Evolución del sistema periódico. Investigación y Ciencia, n. 266, 54-59.

“La válida presencia del creacionismo en el estudio dentro de las ciencias biológicas”
Cristian Patricio Placencia Yáñez
Universidad de Concepción, Chile

La exposición se enmarca en la problemática epistemológica “creacionismo v/s evolucionismo”, aquí se tendrá por objetivo establecer que el creacionismo puede seguir estando presente como referente metodológico en la investigación científico-biológica. Para esto analizaré el creacionismo desde una óptica teológica negativa, considerando los escritos del Pseudo Dionisio Aeropagita; lo que permitirá el estudio funcional teleonómico de las especies biológicas salvando al creacionismo de una valoración moral o estética de las especies; cuestión que ha significado blanco de críticas al creacionismo y su validez científica.
Primero hay que distinguir entre lo que denominaremos Dios positivo y Dios negativo. En un sentido positivo Dios se identifica por poseer características propias que lo definen y lo delimitan claramente, dichas características pueden ser cuestiones tales como: bueno, poderoso, infinito, omnisapiente, omnipotente etc. Bajo esta perspectiva positiva la sentencia fundamental es que Dios “es” de una manera en particular, aquí se asegura que Dios “es benevolente” o que dios “es inteligente”.
Bajo la idea de una vía negativa Dios no es posible de concebir con ninguna característica que le sea propia, la aproximación más cercana que el hombre puede experimentar pertenece al ámbito de la mística, siendo solo posible para el mundo del lenguaje humano designar aquello que no es Dios propiamente tal, según esto lo correcto sería enunciar: Dios “no es infinito”, “no es finito”, no es bueno” etc. Para la vía negativa la naturaleza de Dios queda indeterminada, siendo incorrecto categorizarlo propiamente por ejemplo como un ingeniero que crea siguiendo un método en particular.
La vía positiva trae consigo un creacionismo positivo en donde al ser Dios bueno, crea a su vez con bondad y lo creado es también bueno, ejemplo de esta concepción es Peily, quien concibe que las criaturas son buenas y perfectas y por ello todas las partes que componen los organismos están ordenadas siguiendo la “buena conformación”.
Es claro que las valoraciones de perfección y bondad de las especies biológicas, significan a su vez una determinada metodología de estudio en ciencias biológicas. Para el científico que investigue siguiendo la idea de un diseño inteligente positivo como el de Paley estará sujeto a buscar en la naturaleza la bondad de todos los órganos de determinadas especies, ya que si los organismos son buenos, no se puede esperar cuestiones como partes inservibles o que no resulten las mas óptimas para la totalidad del organismo. Esta cuestión fue denunciada por Sober, quien piensa que el creacionismo no puede ser considerado aún un amparo válido en el estudio en ciencias biológicas. Esto se debe a que las características de Dios determinan lo creado y por ende al existir multiplicidad de dioses no hay una única teoría creacionista que unifique la investigación biológica. Sober revisa esto aludiendo a dos ejemplos: primero el Dios de Paley que crea las especies
como un ingeniero, como un relojero es a su reloj, y un segundo ejemplo es denominado como Dios tramposo, el cual se caracteriza por hacernos creer que las especies evolucionaron.
El primer ejemplo cae en el problema de que como se mencionó anteriormente si Dios es un ingeniero inteligente, todas las partes de un organismo serían óptimas para este, sin embargo, la evidencia empírica refuta esto, ya que la columna vertebral no es idónea para que el humano camine erguido, por el contrario si fuésemos cuadrúpedos la columna respondería a un diseño inteligente, no obstante ya que poseemos nuestra columna con sus rasgos en particular, esta genera en nuestro organismo constantes dolores y complicaciones que pueden acabar en contusiones musculares; cuestión que evidentemente se aleja de lo que concebimos como bueno y propio de un ingeniero. Por tanto según Sober el creacionismo de Paley no responde a la evidencia empírica mientras que sí es posible para la evolución, ya que esta simplemente diría que la columna vertebral es un rasgo heredado de nuestros antepasados cuadrúpedos.
Podría responderse como segunda alternativa que Dios es tramposo y deja en el mundo evidencia que nos de pie a establecer una constante evolución. Sin embargo, el problema de esto es que dicha concepción creacionista no presenta mayores predicciones que las de la evolución, dicho de otra forma, se podría ser evolucionista y los resultados en la investigación biológica serían los mismos que bajo la idea de un Dios tramposo.
Teniendo en consideración lo establecido por Sober, mi propuesta aquí es que no hace falta incurrir en un Dios tramposo o en un Dios benevolente y que aún así podemos hablar de creacionismo biológico con implicancias científicas, dicha´propuesta es la vía negativa mencionada previamente. Nótese que Sober solo se refiere al creacionismo positivo, vale decir a aquel que tiene por eje un Dios con características propias (bueno, tramposo). La vía negativa posee la ventaja sobre el creacionismo criticado por Sober, consistente en la validez científica; esto es estudiar las especies en su funcionamiento. Esto quiere decir orientarse a lo que Mayer denomina “teleonomía”, o sea buscar los objetivos de determinados rasgos dispuestos por la genética.
Si bien la vía negativa no pretende confrontarse radicalmente con el evolucionismo, sí va un paso mas allá, ya que mientras el evolucionista no busca establecer que las alas de las aves son “para volar”, el creacionismo negativo sí se atrevería a emitir dicho juicio.

Bibliografía.
• Sober, E., “Filosofía de la Biología”. Alianza Editorial, 1996.
• Dionisio Areopagita, “Obras completas”, Madrid, B. A. C., 1990.
• Torretti, R. “Diseños y designios”. Estudios públicos, ISSN-e 0716-1115, Nº. 115, 2009, págs. 49-74.
• Mayer, E. “Causa y efecto en biología”. Historia y explicación en biología, co-editado con Ana Barahona, FCE, 1998, páginas 82 – 95.
• Mayer, E. “Los Múltiples significados de «teleológico””. Historia y explicación en biología, co-editado con Ana Barahona, FCE, 1998, páginas 431 – 459.

“Los métodos matemático y trascendental: comentario sobre la matemática kantiana desde la interpretación de Jakko Hintikka”
David Rojas Lizama
U. de Santiago de Chile, Chile

El objetivo de la siguiente ponencia es explicar uno de los puntos de vista en contra de lo que podríamos denominar perspectiva tradicional o “ingenua”, en torno a una interpretación de Kant y su postura sobre las matemáticas, según la cual sus discusiones en torno al método matemático, y la idea de “construcción”, son inesenciales para comprender los argumentos centrales de su primera Crítica –ambos presentes en su “Doctrina Trascendental del método” (en particular: A713/B741-A738/B766). Desde esta posición tradicional se ha planteado que la teoría de la construcción, sobre las bases de la sensibilidad –las que además, se asume, son las responsables de definir a las matemática como sintética— no son en ningún caso exhaustivas, puesto que con suerte envuelven a la geometría, y por otra parte, son derechamente insostenibles para la aritmética y el álgebra. La idealidad del espacio desde la geometría la encontramos tanto en la primera edición de la Crítica, en los Prolegómenos, como en la segunda edición.
Para entrar al detalle del argumento, Van Cleve (1999; 34-35) reconstruye un argumento de la Estética trascndental (A46/B64 -A49/B66) en base a un ejemplo de la visibilidad de un cubo como imagen mental construible a priori, de la siguiente forma:
1. No podemos construir un cubo con más de ocho vértices
2. Por lo tanto, no puede existir ningún cubo con más de ocho vértices
3. La inferencia de (1) a (2) debe ser legitima
4. Podría no ser legitima si los cubos fueran cosas en sí
5. Por lo tanto, los cubos no son cosas en sí, sino apariencias
Para Van Cleve, “construcción” es la palabra técnica que ocupa Kant para visualizar en nosotros mismos a través de la intuición pura figuras como triángulos o cubos (A713/B741). Decir que no podemos construir un cubo de 9 vértices, es decir que no podemos visualizarlo. Además, lo que sucede para el cubo debe suceder para cualquier construcción espacial –o como lo expone mediante un refrán inglés: sauce for the goose, sauce for the gander. Así visto, lo que sucede desde (3) en adelante, es una forma comprimida del “argumento trascendental”.
La visión de Van Cleve (1999), hace juego con los primeros puntos de vista críticos respecto de la matemática en Kant. Es el caso de uno de los primeros y más importantes comentaristas de Kant en Cambridge, C.D. Broad, quien plantea que, visto de la manera en que el Van Cleve lo pone, no hay espacio para otra parte de la matemática que no sea la geometría. Esto mueve a Broad, a sostener que “Kant no ha propuesto teoría alguna sobre el razonamiento algebraico”, conclusión que de hecho se sigue en la medida que se basa en la idea de visibilidad mental para explicar la de construcción.
En palabras de Russell, otro de los defensores de esta visión ingenua, lo que sucede es que “Kant, habiendo observado que los geómetras de su tiempo no podían probar sus teoremas con argumentos sin ayuda de algo más, sino que necesitaban apelar a figuras, inventó una teoría del razonamiento matemático acorde a la cual la inferencia nunca es estrictamente lógica, sino que siempre requiere el soporte de lo que llama ‘intuición’.” (Russell, 1919; 124)
La oposición a la visión planteada por los autores citados hasta quí, desde la cual se hará la presente ponencia, será la de Jakko Hintikka (1967), quien plantea un cambio en la lectura de la Crítica, colocando otros elementos sobre la mesa para proponer una lectura no-lineal, sustentándose en evidencias históricas, fuera de texto y comentarios de influencias. A través de lo antes dicho, sostiene que (a) la discusión sobre el método matemático de Kant debe primar sobre su teoría sobre la matemática, (b) que su base en Euclides va más allá de su teoría matemática, envolviendo el método y su concepto, y (c) que sólo una valorización de la discusión del método hace posible la comprensión de la teoría del álgebra y la aritmética en Kant.
La ponencia será complementada por un la exposición comentada de la tesis de un segundo artículo de Hitikka (1984), donde procede a comparar la idea de método matemático y método trascendental en la filosofía de Kant, además de asentar sobre la base de la definición por oposición la idea planteada en su primer ensayo en réplica a sus críticos, (como el caso de Parsons, 1983).

Bibliografía
• Broad, C.D. (1941-42). “Kant’s Theory of Mathematical and Philosophical Reasoning”, Proceedings of the Aristotelian Society, New Series, Vol. 42, pp. 1-24
• Gardner, Sebastian (1999). Kant and the Critique of Pure Reason, Routledge
• Hintikka, Jaakko (1967). “Kant on the Mathematical Method”, en The Monist, volume 51, 352-375; reimpreso en Posy, Carl J. (ed.) Kant’s Philosophy of Mathematics, Kluwer Academic Publishers, 1992.
• Hintikka, Jaakko (1984). “Kant’s Transcendental Method and His Theory of Mathematics,” en Topoi, volume 3, 352-375; reimpreso en Posy, Carl J. (ed.) Kant’s Philosophy of Mathematics, Kluwer Academic Publishers, 1992.
• Kant, Immanuel (1781 = A/1788 = B). Kritik der Reinen Vernunft
o Versión castellana: Crítica de la razón pura, traducción de Pedro Ribas, Alfaguara, 2004
• Parsons, Charles (1983), “Kant’s Philosphy of Arithmetic”, en Mathematics in Philosophy, Cornell University Press; reimpreso en Posy, Carl J. (ed.) Kant’s Philosophy of Mathematics, Kluwer Academic Publishers, 1992.
• Paton, J. H. (1936). Kant’s Metaphysics of Experience, George Allen and Unwin, 2 vols.
• Russell, B. (1919) Introduction to Mathematical Philosophy, Geroge Allen and Unwin
• Van Cleve, James (1999). Problems from Kant, Oxford University Press.

“Relaciones entre Fleck y el post-empirismo”
Elizabeth Padilla
Universidad Nacional del Comahue, Argentina

En el prefacio a La estructura de las revoluciones científicas (1960), Kuhn menciona que la “casi desconocida monografía” de Ludwik Fleck, La génesis y el desarrollo de un hecho científico, publicada por primera vez en 1935, anticipa muchas de sus ideas, ya que le permitió darse cuenta de que las mismas “debían ser establecidas en la sociología de la comunidad científica” . La mención por parte de Kuhn posibilitó el conocimiento de esta obra a filósofos, historiadores y sociólogos de la ciencia, pero el reconocimiento del valor de su obra sólo se produjo mucho tiempo después. Ahora bien, con independencia de los problemas relativos a poder establecer o no la deuda teórica de Kuhn respecto a Fleck, me propongo en esta ponencia indagar los alcances epistémicos de una de sus nociones fundamentales, la de hecho científico por las implicancias que esta conlleva. En efecto, la caracterización que hace nuestro autor de hecho científico como resultado de un estilo de pensamiento sustentado en un colectivo, anticipa alguna de las principales críticas que realiza el post-empirismo a la filosofía clásica de la ciencia, críticas que contribuyeron con el tiempo a modificar nuestra una visión del conocimiento científico haciéndolo mucho más complejo. En esa dirección. la novedad que introduce Fleck en su obra más conocida -si bien escribió también artículos ninguno de ellos alcanzó la profundidad y extensión de aquella- La génesis y el desarrollo de un hecho científico es que toma para sus reflexiones epistémicas la historia del concepto de sífilis. Contrario a los planteamientos epistémicos tradicionales (por ejemplo, los del positivismo lógico), rehusa tomar como objeto de estudio los hechos de la vida cotidiana, pues sostiene que la proximidad que tenemos con ellos, en el sentido de su naturalización, obstaculiza la posibilidad misma de conseguir un conocimiento crítico del mecanismo cognoscitivo por el cual los adquirimos. Otro tanto sucede con los hechos de la física clásica, pero en este caso el acostumbramiento proviene de la habitualidad de cierto tipo de práctica experimental y por otro, al de su excesivo aprovechamiento teórico. En cambio, sostiene que el surgimiento del concepto de sífilis es más fértil pues no puede reducirse a tratamientos similares a los adoptados para los de la vida cotidiana, como así tampoco a los de la física, ya que se trata de un “hecho nuevo, cuyo descubrimiento no queda por un lado, lejano en el tiempo y por otro, todavía no ha sido considerado bajo todos sus aspectos con fines epistemológicos” y por tanto, “es el que mejor se adapta a los principios de una investigación sin prejuicios” . Por otra parte, el tomar como objeto de reflexión epistemólogica la historia de la sífilis muestra la necesidad del aspecto sociológico en la construcción del concepto pues este requiere para su surgimiento de un colectivo de pensamiento. Dicha noción contrasta en forma evidente con ciertos planteos cognitivos tradicionales que describen al proceso de conocimiento como resultado de una relación bilateral entre un sujeto y un objeto. Dicha descripción, olvida –advierte nuestro autor- una condición imprescindible la interrelación que se da entre lo ya conocido y el conocer. De este modo, lo ya conocido condiciona la forma y manera del nuevo conocimiento, y este conocer expande, renueva y da sentido nuevo a lo ya conocido. De acuerdo a ello, el conocer no es un proceso individual, sino el resultado de una actividad social, ya que todos sabemos que el estado del conocimiento de cada momento excede la capacidad de cualquier individuo. De ahí la necesidad de un colectivo, la comunidad y por otro de un estilo que recoge en sí el campo de las ideas, problemas, conceptos, métodos experimentales que la comunidad está dispuesta a aceptar. Fleck reconoce la necesidad de un sujeto cognoscente colectivo y por otra parte, sustenta que los estilos de pensamiento de cada época exceden en cuanto a sus elementos y complejidad al simple problema del método, al que nos tenía acostumbrados los planteos tradicionales. A esto se incorpora, como dato no menor, su caracterización del cambio científico, que a diferencia del de Kuhn no es revolucionario, sino en cierto sentido no rupturista desde el momento que todo estilo de pensamiento recupera en sí vestigios de los anteriores. En efecto, en la noción misma de hecho científico propuesta por Fleck se resuelve la cuestión del cambio y la permanencia pues el descubrimiento de un hecho científico revela una modificación en el estilo de pensamiento, el cual representa por un lado, un suceso de la historia del pensamiento y por otro, una señal de resistencia en el colectivo. Es objetivo de esta ponencia, indagar acerca de dichos aportes valiosos y no demasiados conocidos que propone Fleck a la visión crítica del post-empirismo

Bibliografía.
Fleck, L. La génesis y el desarrollo de un hecho científico, Alianza, Madrid. 1986.
Kuhn, T., La estructura de las revoluciones científicas, FCE, México, 1985.
Kuhn, T., Alta tensión, Paidós, Madrid, 1998
Kuhn, T., El camino desde la estructura, Paidós, Madrid, 2002
Documentos Fundamentales en «Metatheoria, Revista de Filosofía e Historia de la ciencia», Vol. 1 Nº 1, octubre 2010, (pp. 79-118)

“El criterio de existencia relativa de B. Latour como una posible solución a los problemas ontológicos que plantea la historicidad del conocimiento científico”
Federico Ricalde Sánchez
Universidad Nacional Autónoma de México, México

En el artículo “El realismo y la historicidad del conocimiento” (1999) P. Feyerabend desarrolla algunos de los problemas ontológicos que surgen al aceptar la historicidad del conocimiento empírico. De manera muy general, para Feyerabend, la historia ha dejado en claro que el conocimiento científico, en tanto que practica humana, es producto de las constricciones culturales del contexto donde dicha práctica se realiza. Sin embargo, tradicionalmente se considera al conocimiento científico como aquél que tiene una genuina conexión con el mundo, esto es, como conocimiento de un mundo externo ontológicamente independiente del hombre. Ante esta tensión, Feyerabend realiza la siguiente pregunta: “¿Cómo es que una información que es resultado de cambios históricos e idiosincráticos pueda referirse a hechos y leyes independientes de la historia?”. El análisis de Feyerabend es revelador: asumir una separación entre historia y realidad tiene como consecuencia una sub-determinación radical de todo criterio de realidad (en pocas palabras: no hay forma de aceptar la existencia de los átomos, negando la de los dioses griegos, el dios cristiano, etcétera). En consecuencia, aceptar esta demarcación pondría fuertemente en duda la posibilidad de plantear un conocimiento científico de naturaleza histórica, pero de pretensiones realistas. A pesar de su análisis, Feyerabend sólo planteo los supuestos metafísicos de una posible solución sin ir más allá en su caracterización. En mi comunicación propongo que el criterio de existencia relativa que ha desarrollado B. Latour puede servir de punto de partida para elaborar esta solución, pues me parece que la propuesta de Latour parte de los mismos supuestos metafísicos que plantea la hipotética solución de Feyerabend. De esta forma, ambas posturas podrían complementarse, por un lado, Feyerabend ofrecería un argumento a favor del realismo de Latour y, por otro, esta postura sería un desarrollo de lo que, tal vez, Feyerabend tenía en mente.

Bibliografía:
– Feyerabend, P., “El realismo y la historicidad del conocimiento” en La conquista de la abundancia. Paídos., pp. 159- 176.
– “Comentarios históricos sobre el realismo”., ibíd., pp. 233-241.
– Latour, B., “On the partial existence of Existing and Non Existing Objects” en Biographies of Scientific Objects., ed. Daston, L., University Of Chicago Press., pp. 247- 269.
– Latour, B., La esperanza de Pandora, Gedisa, España.

“Experimentos Mentales, Comprensión y la Tesis de la Pluralidad Lógica”
Felipe Morales Carbonell
U. de Chile, Chile

Una de las funciones de los experimentos mentales es proponer posibilidades que implican la corrección o error de una explicación o el análisis. Este trabajo explora y defiende la idea de que al hacer esto, un experimento mental muestra una comprensión, a saber, la comprensión de parte de quien crea en la validez o coherencia del experimento mental de los conceptos y mecanismos que aparecen en este. Quien cree en un análisis determinado en base a un experimento mental, ha conectado los conceptos relevantes de maneras significativas que soportan o justifican sus juicios de posibilidad, y que además constituyen en él disposiciones a creer en posibilidades similares. Es decir, las intuiciones modales de alguien dependen de su comprensión global de los conceptos y mecanismos operantes en casos hipotéticos.
Esto tiene consecuencias para la manera en que tenga que entenderse la experimentación mental. Aquí me detendré en la manera en que el elemento de la comprensión puede echar luz sobre el modelo argumental propuesto por Norton, y otros. Uno de los problemas que este modelo presenta es que es poco claro bajo los parámetros de qué lógica puedan reducirse los experimentos mentales; en Norton (2004), por ejemplo, se acepta que podría ser necesario concebir la lógica en un sentido ampliado, pero no es claro cuál sea este. Si se introduce el concepto de comprensión a punto de la justificación de los juicios que aparecen en los experimentos mentales, podría parecer viable salva la dificultad adoptando una tesis de pluralismo lógico en la reducción argumental de los experimentos mentales.

Bibliografía
Norton, John (2004) «On Thought Experiments: Is There More to the Argument?» Proceedings of the 2002 Biennial Meeting of the Philosophy of Science Association, Philosophy of Science, 71, págs. 1139-1151.

“Hacia un método de decisión para la Lógica de Predicados Monádicos de Primer Orden”
Horacio Héctor Mercau, Andrés Hebrard
Universidad Nacional de La Plata– FaHCE – UNLP, Argentina

Frank Thomas Sautter desarrolló un método de prueba para la Lógica Proposicional Clásica en el cual las representaciones sobresalientes transmiten información y, por lo tanto, permiten una prueba de validez por mera inspección visual, o sea, mediante operaciones simples de constatación de ciertos elementos sobresalientes en determinadas disposiciones, sin que ninguna otra operación compleja sea necesaria. Este método tiene también, como característica distintiva, el uso de ideogramas: las fórmulas de la Lógica Proposicional Clásica son, relativamente al método, ideogramas, es decir, que ellas son híbridos entre representaciones gráficas y no gráficas. Por un lado, la función ectética, típica de los métodos diagramáticos de prueba, no esta presente; por otro lado, la función operativa, típica de los métodos simbólicos de la prueba, no es presente. Este uso de ideogramas deriva de un trabajo anterior de Frank Sautter, el cual a su vez, se deriva de una práctica de Peirce. El uso ideogramas permite la discusión del problema de la demarcación entre representación gráfica y representación no-gráfica. El objetivo de este trabajo es desarrollar un método de prueba para la Lógica de Predicados Monádicos de Primer Orden con las mismas características del método desarrollado por Frank Sautter. El método aquí desarrollado, tal como el método desarrollado por Sautter, utiliza resultados y técnicas bien conocidos en la literatura; su originalidad e interés reside en la posibilidad de la discusión de los problemas de demarcación entre lo gráfico y no-gráfico, y también en la posibilidad de discusión fundacional de problemas tales como el problema de la caracterización de las nociones lógicas en términos de información.

Referencias
ESQUISABEL, Oscar Miguel. Representing and Abstracting: An analysis of Leibniz’s concept of symbolic knowledge. In: LASSALLE CASANAVE, Abel (org.) Symbolic Knowledge from Leibniz to Husserl. London: College Publications, 2012. p. 1-49.
MENDONÇA, Bruno Ramos. Conhecimento Simbólico em John Venn. Dissertação (mestrado) – Universidade Federal de Santa Maria, Centro de Ciências Sociais e Humanas, Programa de Pós-Graduação em Filosofía, 2013.
SAUTTER, Frank Thomas. Linear K. In: LASSALLE CASANAVE, Abel & SAUTTER, Frank Thomas (orgs.) Visualização nas Ciências Formais. London: College Publications, 2012. p. 145-161.
SAUTTER, Frank Thomas. Leitmotiv de Hilbert y Ackermann. In: ESQUISABEL, Oscar Miguel & SAUTTER, Frank Thomas (orgs.) Conocimiento Simbólico y Conocimiento Gráfico. En prensa.
SHIMOJIMA, Atsushi. The Graphic-Linguistic Distinction: Exploring Alternatives. Artificial Intelligence Review., v. 15, 2001. p. 5-27.

“Scientia generalis en Leibniz: ¿ars demostrandi o ars inveniendi?”
Javier Kasahara Barrientos
Universidad Católica de la Santísima Concepción, Chile

El propósito de esta comunicación es analizar de modo sucinto el sentido de una scientia generalis (SG) en Leibniz. Todo ello, en relación con la idea de método moderno. Básicamente SG se trata de un proyecto que Leibniz desarrolló a lo largo de extensas notas y posibles entradas a una eventual enciclopedia durante varios años, de manera particular entre 1678 y 1679, pero que posteriormente siguió desarrollando (Antognazza 2009, pp. 235-236). En una de dichas notas titulada «Definitio brevis scientiae generalis», sostiene el filósofo alemán que el proyecto de una SG consiste en establecer los elementos de las ciencias (A VI 4: 532). Si bien hay evidencia suficiente de la afinidad en Leibniz por la deducción, lo cierto es que el filósofo alemán busca conciliar la justificación del conocimiento mediante la capacidad de establecer un método que también nos permita encontrar nuevas verdades, retomando con ello la clásica discusión sobre el conocimiento preexistente en los Analíticos Posteriores de Aristóteles (71 a1-71b8). En términos leibnizianos la cuestión consiste en plantearse la siguiente interrogante: ¿cómo se relacionan ambos aspectos en el proyecto de una SG?, ¿se trata eminentemente de una ars demostrandi o de una ars inveniendi? Por otra parte, la SG alude a la necesidad de una nueva enciclopedia que permita ordenar el saber, “un cuerpo donde los conocimientos humanos más importantes son dispuestos en orden” (A VI 4: 161). Esto recoge la idea de Bacon sobre la acumulación del saber y su importancia social, que en el caso propio de Leibniz mejoraría la propia propuesta baconiana al establecer criterios metodológicos para dicha acumulación, específicamente con la idea de síntesis y análisis. Por último, SG trasciende la propia exigencia metodológica, perfilándose como un proyecto de ciencia con aspectos antropológicos y morales, pues se orientan a la formación del espíritu humano, theoria cum praxi en palabras del propio Leibniz.

Bibliografía
Antognazza Maria Rosa (2009): Leibniz: An Intellectual Biography. Cambridge University Press: New York.
Aristóteles (1989): Posterior Analytics. Loeb Classical Library vol. II. H. Tredennick (trans.). Harvard University Press: Cambridge, Massachussets; London, England.
G. W. Leibniz (1923-): Sämtliche Schriften und Briefe. Deutsche Akademie der Wissenchaften: Berlin.

“O Experimento e a Divulgação Científica: O Caso do anfiteatro da Royal Institution of Great Britain do século XIX”
João Batista Alves dos Reis, Ivoni de Freitas-Reis
CENTRO UNIVERSITÁRIO DE CARATINGA – UNEC, UNIVERSIDADE FEDERAL DE JUIZ DE FORA – UFJF, BRASIL

A ideia da divulgação da ciência idealizada por Michael Faraday (1791-1867) objetivava demonstrar e recriar um ambiente envolvente, agradável o bastante, diferente do rigor “científico” dos laboratórios. Mas, que reconstruísse os experimentos, com toda profundidade teórica para estimular e, principalmente, para despertar nos jovens a vontade de aprender e a possibilidade de “treinar a mente”, como um processo também educativo. O principal objetivo era a popularização da ciência, marcadamente, uma característica fortíssima na sua vida. Para ele, a ciência, deveria fornecer meios para fundamentar a educação dos jovens. A partir de 1826, Faraday dava início a dois projetos educativos direcionados à popularização e ao entendimento da ciência (a princípio apoiado pelo tradicional público que frequentava as Lectures de Humphry Davy). Ele começaria com as conferências intituladas: Friday Evening Discourses para membros e convidados da Royal Institution of Great Britain, no mesmo ano, na época do natal, começaram as Christmas Lectures (Juvenile) especialmente dedicadas aos jovens. Citando James Hamilton: “A Vida durante a primeira metade do século XIX, captava a emoção da mistura explosiva de atividade cultural científica e outra em Londres, reformula radicalmente a nossa percepção não apenas de Michael Faraday, mas da interação das artes, ciências e educação no alvorecer da era moderna.”
O século dezenove trouxe o desenvolvimento de máquinas candlemaking patenteadas, para fazer velas produzidas em massa amplamente disponíveis a um custo muito menor. Um químico chamado Michel Eugène Chevreul fizera uma descoberta importante. Ele percebeu que o sebo não era uma substância, mas uma composição de dois ácidos graxos, ácido esteárico e ácido oleico, combinados com glicerina para formar um material neutro, não-inflamável. Nesse estudo, foram tecidos comentários sobre as Christmas Lectures (Juvenile) de Faraday, através do exemplo de uma vela em combustão fundamenta argumentos capazes de deduzir; a física e a química, envolvidas em torno da chama (da ação capilar do pavio, as correntes de convecção, a combustão no interior da chama) e reduzi-las ao nível de leigos.
A ênfase dada às conferências estava concentrada nas idéias, nas teorias e nos experimentos ordenados em sintonia direta com a natureza harmônica e progressiva inerentes à ciência. Há algo mais envolvendo a sistemática dos experimentos demonstrados nas Lectures de Faraday; e, até mesmo, como particularidades para persuadir aos demais construírem um ponto de vista sobre a ciência. Grosso modo, nessa análise aqui detalhada dessas peculiaridades, permite-nos dizer que nos pilares dessa heurística, o estudioso britânico, também, objetivava influenciar no construto das bases educacionais relativas à ciência daquela época. Ou melhor, a sistematização dos processos educativos através de uma linguagem metafórica foi elaborada por aparatos epistêmicos, para a divulgação da ciência e dos processos educativos intrínsecos.
As bases da ciência estendiam-se ao argumento de que o estudo da ciência poderia contribuir no repensar a educação dos jovens, o lugar da ciência na educação. O principal objetivo recaia no fato de que espécie de ciência se deveria ensinar.
Geoffrey N. Cantor investigando detalhes da correspondência de Michael Faraday sobre as similaridades entre as estruturas físicas, espirituais e morais; afirma que a riqueza das metáforas usadas, examinadas no texto da conferência intitulada On Mental Education, nas investigações sobre a natureza, o estudioso britânico, usava a linguagem metafórica de estar lendo um livro único (teoria da unicidade). Em tese, para Faraday, o livro da revelação, metaforicamente, havia composto, também, o livro da natureza. Esta abrangência revela uma correspondência estreita entre numerosas referências de linguagem.

BIBLIOGRAFIA
CAROE, G. The Royal Institution: An Informal History. John Murray Publishers: Londres, ,1985.
CRAWFORD, E. «Michael Faraday na Aprendizagem da Ciência e das Atitudes da Mente». Ciência e Instrução, 7(2, 1998): 203-11.
DAY, Peter., org. The Philosopher’s Tree: A Selection of Michael Faraday’s Writings. Institute of Physics Publishing: Bristol/Filadélfia, 1999.
CANTOR, G. “Reading the Book of Nature”, (org) David Gooding and Frank A . J. L. James, in: Faraday Rediscovered: Essays on the Life and Work of Michael Faraday, 1791-1867, 2ª ed. MacMillan Press: Hong Kong/Londres, 1989.
FARADAY, M. The Forces of Matter. Prometheus Books: Buffalo,1993.
_____. Chemical Manipulation, Being Instructions to Students in Chemistry. 3ª ed. John Murray: Londres, 1842.
_____. A história química de uma vela; As forças da natureza. Org. I de C Moreira. Trad. brasileira de Vera Ribeiro. Contraponto: Rio de Janeiro, 2003.
GOODING, David. «Empiricism in Practice: Teleology, Economy, and Observation in Faraday’s Physics». Isis, 73(1982): 46-67.
HAMILTON, J. Faraday: The Life. Harper CollinsPublishers: Londres, 2002.
REIS, J. B. A.. A Teoria Magnética de Michael Faraday: Experimentos e Idéias sobre o Diamagnetismo. Dissertação de Mestrado, São Paulo, Pontifícia Universidade Católica de São Paulo, 2000.
REIS, J. B. A.. A Arquitetura Metodológica de Michael Faraday. Tese Doutorado, São Paulo, Pontifícia Universidade Católica de São Paulo, 2006.
TWENEY, R. D. Rediscovering Skill in Science, Tecnology and Medicine. Science Studies: Londres, 1990.
_____. “Stopping Time: Faraday and the Scientific Creation of Perceptual Order”. Physis, 20 (44, 1992): 149-64.

“Explicación científica y simulaciones computacionales”
Juan Manuel Durán, Manuel Barrantes
Universidad Nacional de Córdoba, University of Virginia. Argentina, USA.

Este trabajo se centrará en analizar la explicación de resultados simulados mediante el uso de simulaciones computacionales. En este sentido se atendrá a tres ejes puntuales, a saber: i) ¿cuál se la relación de explicación que se da entre explanans y explanandum? (entendiendo como explanans el `modelo simulacional’ y el explanandum como una `descripción de los resultados de la simulación’) Se ofrecerá como marco teórico la teoría unificacionista de la explicación y se darán fundamentos de por qué se considera esta teoría como la más apropiada para las simulaciones computacionales. ii) ¿qué tipo de ganancia epistémica se obtiene al explicar? Dado que enmarco la explicación dentro de la teoría unificacionista, la ganancia epistémico de explicar se asocia con unificar los resultados explicados dentro de un cuerpo de conocimiento más amplio, como es el implementado en el modelo simulacional. Finalmente iii) se discutirán algunas sospechas que puedan despertar el hecho de identificar el explanans y el explanandum de esta manera, en especial en lo referente a lo que denominamos una `contención’ de uno con el otro. En otras palabras, la sospecha filosófica de que el explanandum está incluido en el explanan de modo que este último no está genuinamente explicando. A continuación se detallarán estos tres puntos comenzando por una defensa del unificacionista.

En primer lugar, la teoría unificacionista de explicación tiene para ofrecer ciertas propiedades atractivas para las simulaciones computacionales, así como las simulaciones se adaptan más fácilmente al unificacionista. Para comenzar, se sostiene sin demostrar que las simulaciones computacionales son mecanismos abstractos y, hasta cierto punto, formales, por lo cual de todas las teorías de explicación existentes, la unificacionista es la única que toma a la relación explicativa como puramente epistémica (y que no tiene objeciones difíciles de superar). Por el lado de que una simulación se adapte al unificacionista, debemos comenzar con analizar el concepto de simulación, que debe ser dividido en dos: por un lado se tiene el modelo simulacional, que representa un target system, mientras que por el otro está una simulación computacional particular, que consiste en instanciar las condiciones iniciales y de frontera de este modelo computacional. Así entendida, una simulación computacional es un sistema que, dependiendo de cómo se instancien ciertas variables, se producirán una multiplicidad de resultados. La teoría unificacionista de explicación pretende, justamente, capitalizar en la explicación la capacidad de reducir esa multiplicidad a un conjunto mínimo de patrones. (NP: La noción de `reducción’ aquí usada no es en sentido ontológico ni metafísico, como los proponentes del Unity of Science Movement. Por otra parte, la noción de `patrón de comportamiento’ se la entiende como descripciones de identifican tipos naturales y dependencias objetivas tales como causalidad.)

En cuanto a las preguntas i) y ii) de arriba, utilizando un ejemplo simple, se mostrará cómo es posible llevar adelante una explicación de una descripción de los resultados de una simulación y cuál es la ganancia epistémica que se espera. Explicar, para el unificacionista, consiste pues en derivar la descripción de una multiplicidad de resultados utilizando la mínima cantidad de patrones de comportamiento. Mientras más resultados se expliquen con los mismos patrones, más unificado dichos resultados se presentarán. Philip Kitcher, quién trabajó sistemáticamente la explicación unificacionista, conceptualiza lo que denomina el explanatory store, y que es el equivalente al explanans, como consistiendo en cuatro elementos: schematic sentence, filling instructions, classification, y comments (Kitcher, 1989, 440). Parte de la presentación de este trabajo consistirá en detallar cada uno de estos elementos y qué función cumplen. Ejemplificaré este punto con una simulación de la interacción de dos cuerpos. La pregunta sobre la ganancia epistémica, como se ha dicho, tiene que ver con el avance de nuestro entendimiento al explicar algo. Siguiendo al unificacionista, entonces, entender viene de ver conexiones y patrones comunes en lo que inicialmente parecían resultados disímiles o aislados. Dichas conexiones son exhibidas justamente en el proceso de derivar la descripción de los resultados de la simulación, es decir, por medio de explicar los resultados. Por lo tanto, mediante el acto epistémico de ver conexiones y patrones comunes entre el resultados y la simulación computacional, los científicos comprenden mejor aquellos resultados que aparecían como disímiles, aislados, o simplemente incomprensibles.

Finalmente, se reconoce que hay una serie de problemas que se presentan en este esquema, una de particular importancia y que hemos denominado `contención’ del explanans en el explanandum. La objeción sería la siguiente: si una simulación computacional explica los resultados de sí misma, entonces parecería que el explanandum está contenido en el explanas de un modo trivial, y por lo tanto no hay explicación genuina. Una posible solución que se discutirá tiene que ver con una distinción en la noción de resultado independiente. Brevemente, se sostiene que hay dos formas de interpretar la independencia de los resultados de una simulación: Tipo I donde los resultados son independientes entre sí, y Tipo II donde los resultados son independientes del modelo o el proceso que los produjo. La objeción de contención tiene que ver con el segundo tipo de independencia. Se ofrecerá una respuesta a este problema.

Bibliografía:
Kitcher, P. (1989). “Explanatory Unification and the Causal Structure of the World”. In P. Kitcher and W. C. Salmon (eds.), Scientific Explanation, 410– 505. University of Minnesota Press.

“Sobre indiscernibilidade dos idênticos segundo Willard Van Orman Quine”
Kênio Angelo Dantas Freitas Estrela
Universidade Federal da Paraíba, Brasil

A partir do artigo «reference and modality» (1961), o filósofo analítico americano Willard Van Orman Quine discorre uma investigação acerca da substitutibilidade ou indiscernibilidade dos idênticos. Esta tese mostra que dado um enunciado de identidade verdadeira, um de seus dois termos pode ser substituído pelo outro em qualquer enunciado verdadeiro e o resultado será verdadeiro. Quine vai mostrar ao longo de sua análise que tal proposta é contraditória e facilmente derrubada. Ao longo de texto o autor lança 41 exemplos demonstrando as diversas perspectivas de análise da substitutibilidade e as quebras. Essa discussão é remetida por Quine primordialmente à Frege (1949), que tratou sobre ocorrências diretas e oblíquas e utilizou a teoria da indiscernibilidade como critério de análise. O objetivo central da investigação de Quine neste artigo é a prova da contraditoriedade da teoria da substitutibilidade e, ao longo da tentativa, o autor faz um percurso pan orâmico na tradição da filosofia analítica por meio das propostas de Church, Carnap e Russell. A investigação está estruturada por meio de quatro atos. Onde no primeiro é feito uma retomada acerca dos conceitos do objeto de investigação; no segundo, levanta-se questionamentos sobre a utilização de quantificadores e como a opacidade referencial se manifesta em relação às variáveis; no terceiro, Quine demonstra uma possibilidade de se quantificar em contextos modais de forma legítima e, no quarto e último ato, o filósofo trás a tona a falha da substitutibilidade da identidade. O caminho que nos levam do tratamento de um termo singular para a sua substituição por outro que se considera idêntico é referencialmente opaco. Nossa proposta é diluir esta análise para que possamos entender o percurso da prova de opacidade referencial que é feita de forma gradativa ao longo dos atos: desde os conceitos até a prova final.

Palavras-chave: significado. referência. contexto opaco. quantificação.

Bibliografia:
Quine, W.V.O., Quintessence, Reference and Modality, pp.356-357
_______. De um ponto de vista lógico. São Paulo: Unesp, 2011.
_______. Palavra e objeto. [Tradução de Sofia Inês Albornoz Stein (cap. I, II, III, IV e V) e Desidério Murcho (cap. VI e VII); revisão técnica, Sofia Inês Albornoz Steine. – Petrópolis, RJ: Vozes, 2010.
GOMES, Nelson Gonçalves; BRANQUINHO, João; MURCHO, Desidério. Enciclopédia de termos Lógico-filosóficos. Wmf Martins Fontes, 2006.

“Información, creencia e inferencias default”
Lautaro Elias Quiroga Aguilar
Universidad de Chile, Chile

La ciencia cognitiva clásica (representacional/computacional) y contemporánea (arquitecturas conexionistas) ha construido sus explicaciones sobre el supuesto de que los procesos cognitivos operan sobre la base de información. El debate acerca del formato cognitivo (i.e., estructuras con propiedades intencionales) y el contenido mental constituye un problema ontológico/semántico para la ciencia cognitiva. Desde el trabajo de Shannon & Weaver, el análisis de la información se escinde en virtud de dos objetos explicativos: (1) el aspecto cuantitativo de la información situada en el nivel sintáctico (la teoría matemática de la comunicación); y (2) la información como contenido semántico (filosofía de la información). Tempranamente, Bar-Hillel (1964) reconoció que la posibilidad de conectar los avances de la ingeniería matemática a fenómenos de comunicación requería establecer la diferencia entre información como igual a secuencias de señales e información como igual lo que es expresado por la secuencia de una señal. Por lo tanto, la medida de la información semántica es distinta a la medida de los eventos de transmisión de enunciados. La relevancia de la información semántica como modalidad epistémica y doxástica ha sido hasta concebida en el marco de la naturalización de la información (Dretske, 1981; Barwise & Seligman, 1997) y del contenido mental (Fodor, 1998). Para Adams (2003) este proyecto intentaría mostrar la relevancia de la teoría matemática de la comunicación respecto al significado en sentido psicológico.

Si bien el proyecto de naturalización del contenido y la información ha considerado que el aspecto ontológico/semántico depende de la existencia de una correlación confiable mente-mundo no se ha establecido la relación entre dicha condición y las propiedades de las Actitudes Proposicionales. Por consiguiente, definir la naturaleza de la información y el contenido mental respecto a la explicación intencional es, en esta propuesta, fundamental respecto a la comprensión de las modalidades epistémicas de creencia. La relevancia de la información respecto a las modalidades de creencia debe considerar que “las relaciones lógicas que valen en general entre las proposiciones per se no tienen por qué valer, ipso facto, entre las proposiciones qua proposiciones creídas” (Rescher, 1973:405) y, por lo tanto, que se requiere una noción de información que haga de interfaz entre la noción de contenido mental en sus aspectos doxásticos y subdoxásticos.

En este trabajo intento sostener una noción lingüística de información coherente con una modalidad de creencia que puede ser reconstruida en base a algunas intuiciones de la lógica default.

Esto habilita el planteamiento de interrogantes ontológico/semánticas para las teorías que sostienen la identidad de inferencias default (Stenning & Van-Lambalgen, 2010) con fenómenos pragmáticos de la comunicación (Levinson, 1995; Jaszczolt, 2010; Pijnacker, 2009).

Referencias
Adams, F. (2003). “The Informational Turn in Philosophy”, Minds and Machines, 13(4): 471–501.
Bar-Hillel, Y. (1964). Language and Information: Selected Essays on Their Theory and Application. Reading, Mass; London: Addison-Wesley.
Barwise, J. and Seligman, J. (1997). Information Flow: The Logic of Distributed Systems. Cambridge: Cambridge University Press.
Dretske, F. I. (1981). Knowledge and the Flow of Information. Oxford: Blackwell; reprinted, Stanford, CA: CSLI Publications, 1999.
Fodor, J. (1998). Concepts: Where Cognitive Science Went Wrong, New York: Oxford University Press.
Jaszczolt, K. (2010). Defaults in Semantics and Pragmatics. En Zalta, E. (ed.), The Stanford Encyclopedia of Philosophy. Consultado el 20 de noviembre de 2012 en: <http://plato.stanford.edu/archives/win2010/entries/defaults-semantics-pragmatics/>.
Pijnacker, J.; Geurts, B.; Van Lambalgen, M.; Kan, C. C.; Buitelaard, J. K.; Hagoort, P. (2009) «»Defeasible reasoning in high-functioning adults with autism: evidence for impaired exception-handling»», in Neuropsychologia 47:3. 644-551.
Shannon, C. & Weaver, W. (1949). The Mathematical Theory of Communication. Champaign: University of Illinois Press. (Reprint with a new introduction by Weaver, of Shannon’s work by the same name in 1948 in the Bell Systems Technical Journal.)
Stenning, K, & Van Lambalgen (2010).Human Reasoning and Cognitive Science. Cambridge, MA:MIT Press.

“Comprendiendo la selección natural, para entender la naturalización de la ética”
Luis Adolfo Espinosa Soto
USACH, Chile

Desde que Wilson (1975) hiciera su famoso llamado a que científicos y humanistas “deberían considerar juntos la posibilidad de que ha llegado la hora de quitar temporalmente la ética de las manos de los filósofos y biologizarla” han pasado cerca de 40 años de debates y fructíferos aportes, pero también intentos de validar ideologías imperantes en base a la biología. Sin embargo, uno de los principales problemas a la hora de evaluar tal perspectiva radica en el desconocimiento parcial y/o “mal entendidos comunes” acerca de su suposición fundante: la teoría de la evolución por selección natural. Es decir, antes de iniciar cualquier proyecto de “biologización”, pienso, debemos tener una comprensión mayor, para no caer en “prejuicios” o “ataques infundados”. Es por ello que, a lo largo de la presentación, se buscará:

(A) Analizar la lógica de la teoría de la selección natural, presentada por Mayr (1982), como la conjunción de cinco hechos (fertilidad, estabilidad demográfica, recursos limitados, variabilidad y herencia) presentes en el mundo biológico, y tres inferencias (lucha por la supervivencia, supervivencia diferencial y cambio poblacional) que lograrían capturar la teoría darwiniana.
(B) Analizar algunos conceptos importantes derivados, como el de “adaptación”, papel de la contingencia en el proceso evolutivo, destacado por Gould (2002), “exaltación”, “niveles de selección”, y “pensamiento poblacional”, esenciales para comprender la “naturalización” de la ética.
El tercer objetivo tiene relación con algunas implicaciones básicas de la teoría: (C) Analizar malos entendidos comunes acerca de la teoría darwiniana: carácter progresivo de la evolución, programa adaptacioncita, carácter finalista de la naturaleza o solo ver su parte “competitiva”.
Es decir, a lo largo de la presentación se abordaran los presupuestos básicos (pero de comprensión necesaria) bajo los cuales podemos fundamentar la llamada naturalización de la ética-política humana.

Bibliografía.
Darwin, Charles, (2007). El origen de las especies. 1st ed. México: Universidad Veracruzana.
Elliott, Sober, (1996). Filosofía de la biología. 1st ed. España: Alianza editorial.
Gould, Stephen Jay, (2002). The estructure of evolutionary theory. 1st ed. EE.UU: Cambridge: Belknap Press of Harvard University Press.
Pigliucci, Massimo (2009). An Extended Synthesis for. Evolutionary Biology. Departments of Ecology and Evolution and of Philosophy, Stony Brook University
Mayr, Ernst (1982). The growth of biological thought. Belknap Harvard

“Lógica molecular difusa: concepto y aplicaciones en biología celular”
Marco Lillo Unglaube, Andres Canales-Johnson, Claudio Fuentes Bravo
Universidad Diego Portales, Chile

En los últimos 20 años, el concepto de (com)puerta lógica desarrollado primero en la electrónica como la implementación física de una función booleana ha comenzado a ser de interés para la biología molecular por el rápido crecimiento de la nanotecnología. Este campo emergente ha sido denominado “Lógica Molecular” y tiene como objeto de estudio la construcción de sistemas representación que usen operadores lógicos para describir procesos de interacción entre substratos moleculares (de Silva & Uchiyama, 2007). Esta serie de operadores lógicos han permitido caracterizar la relación entre «entradas» y «salidas» de diferentes moléculas en un sistema complejo como las células. Sin embargo, tanto los componentes moleculares como el desempeño explicativo de las (com)puertas lógicas se limitan al desarrollo todavía incipiente del campo de la lógica molecular. Por ejemplo, a pesar de la existencia de enfoques basados en lógica booleana para describir la s interacciones celulares (Tamsir et al. 2011), la descripción de muchos de los procesos moleculares dentro de las células son todavía escasos y poco realistas. En este sentido, se ha propuesto que el uso de la lógica difusa puede ser útil para caracterizar los valores intermedios entre «entradas» y «salidas» a nivel molecular y poder emplearse como una matriz explicativa que permita una mayor fidelidad al fenómeno de estudio. En esta presentación se expondrán las ventajas y desventajas de las aproximaciones explicativas basadas tanto en compuertas lógicas como en lógica multivaluada mediante la discusión de (1) aplicaciones recientes de la lógica molecular al estudio de procesos bioquímicos basados en compuertas lógicas (Tamsir et al., 2011) y (2) una nueva representación del nivel molecular y celular basada en una lógica multivaluada propuesta por Aldridge et al. (2009).

Referencias:
• de Silva AP, Uchiyama S. (2007). Molecular logic and computing. Nature Nanotechnology; 2: 399-410.
• Tamsir A, Tabor JJ, Voigt CA. (2011). Robust multicellular computing using genetically encoded NOR gates and chemical ‘wires’. Nature; 469: 212-215.
• Aldridge BB, Saez-Rodriguez J, Muhlich JL, Sorger PK, Lauffenburger DA. (2009). Fuzzy logic analysis of kinase pathway crosstalk in TNF/EGF/insulininduced signaling. PLoS Computational Biology. DOI: e1000340

“La función biológica de la conciencia fenomenal”
Nicolás Alarcón Zambrano, Ramiro Frick
Universidad Andrés Bello, Universidad Alberto Hurtado/ Instituto de Filosofía y Ciencias de la Complejidad, Chile

¿Cómo y por qué evolucionaron organismos con consciencia? ¿Los estados mentales conscientes poseen alguna función? ¿Cuál sería la función biológica de la conciencia? Cualquier intento de responder a estas interrogantes, así como de evaluar las posibles respuestas, nos obliga primero a resolver dos cuestiones en cierto sentido más fundamentales: el problema de la conciencia, uno de los mayores problemas en la filosofía de las ciencias cognitivas, y el problema de las funciones biológicas.
¿Qué es la conciencia? Al respecto, existe una abrumadora diversidad de teorías y aproximaciones (Velmans et al 2007), dentro de las cuales quizá las más influyentes pueden ser agrupadas en las siguientes categorías no-excluyentes: teorías de alto-orden (Carruthers 2007), teorías representacionales (Dretske, F. 1993), teorías cognitivas (Baars 1988) y teorías neurales (e.g. Metzinger 2000).
Por otro lado, dentro de las ciencias biológicas es común la adscripción, descripción y explicación funcional de ciertos fenómenos. Pero ¿qué significa exactamente que un cierto rasgo R tenga la función biológica F? Aunque el problema es viejo (e.g. Nagel 1961), hoy por hoy no existe consenso dentro de la filosofía de la biología. En el espacio de posiciones sobresalen tres tipos de teorías: teorías etiológicas (Wright 1973), teorías disposicionales (Cummins 1975), y más recientemente, teorías sistémico-organizacionales (Mossio et al 2009).
El presente trabajo pretende investigar la manera específica en que las diversas teorías relativas a la conciencia fenomenal y a las funciones biológicas acotan y constriñen el espacio de posibles respuestas al problema de la función biológica de la conciencia fenomenal.

Referencias.
Baars, B. (1988) A Cognitive Theory of Consciousness. Cambridge: Cambridge University Press.
Carruthers. P. (2007) «Higher- order theories of consciousness», en: Velmans et al (2007).
Cummins, R. (1975) ‘Functional analysis’, Journal of Philosophy, 72, pp. 741–765.
Dretske, F. (1993) “Conscious experience.” Mind, 102: 263-283.
Metzinger, T. (ed). (2000). Neural Correlates of Consciousness: Empirical and Conceptual Questions. Cambridge, MA: MIT Press.
Mossio M., Saborido C., Moreno A. (2009) “An Organizational Account of Biological Functions”, The British Journal for the Philosophy of Science, 60(4): 813-841.
Nagel, E. (1961): The Structure of Science, London: Routledge & Kegan Paul.
Velmans M., Schneider S., (eds). (2007). The Blackwell Companion to Consciousness. Oxford: Blackwell Publishing.
Wright, L. (1973): ‘Functions’, Philosophical Review, 82, pp. 139–68.

“Dualismo Ontológico y Monismo Perceptivo: Consecuencias epistemológicas de las neurociencias”
Nolberto Stoyan Salinas Vucina
Universidad de Santiago de Chile, Chile

Objetivo de la ponencia:
Analizar el grado en el cual las Neurociencias adhieren al dualismo ontológico cartesiano; sus consecuencias para la percepción, y sus consecuencias epistemológicas.
Dualismo Ontológico.
¿Adscriben las Neurociencias al dualismo cartesiano respecto de la existencia de la res extensa vs res cogitans?
Cito a un gran Neurocientífico español:

“… las neuronas de la retina no copian nada del mundo externo, sino que detectan cosas que son las que enviará luego al cerebro para su posterior procesamiento. Como señala Blackmore (1976): Las neuronas presentan argumentos al cerebro basados en las características especificas que detectan (en el mundo exterior), argumentos estos con los que el cerebro construye su hipótesis de la percepción”.
Francisco Mora

Podemos constatar que la Neurociencia sigue fielmente el paradigma cartesiano actualizado como la dualidad mente–cerebro, que el filósofo David Chalmers denominó el “Problema Difícil de la Consciencia”.

“La parte más difícil del problema mente-cuerpo se encuentra en la pregunta: ¿cómo podría un sistema físico originar la experiencia consciente?… “
David Chalmers.

Monismo Perceptivo.
Sin embargo, este dualismo mente cuerpo conducen a un monismo perceptivo a partir de los postulados de los mayores representantes de esta ciencia:

“Aquí está el quid de la neurobiología, tal como yo la imagino: el proceso por el cual representaciones neurales… se transforman en imágenes en nuestra mente;… una representación neural que a su vez se transmuta en una imagen que cada uno experimenta como propia”.
Antonio Damasio.

«El cerebro es una entidad muy diferente de las del resto del universo. Es una forma diferente de expresar todo. La actividad cerebral es una metáfora para todo lo demás. Somos básicamente máquinas de soñar que construyen modelos virtuales del mundo real».
Rodolfo Llinás.

Si es efectivo que percibimos un universo de imágenes y que somos, en el fondo, máquinas de soñar, implica que la realidad que atestiguamos es mental e incluso, onírica. Esta consecuencia hace resurgir uno de los grandes problemas del empirismo: el escepticismo extremo, y su sombra solipsista, la cual intentaron difícilmente evadir, no sólo Hume o Berkeley, sino que también un racionalista como Descartes.
Hume, trazó pragmáticamente una línea divisoria, cuyos efectos se reproducen con fuerza hasta hoy en día: la especulación filosófica, por una parte, y la creencia psicologista en la realidad del mundo y de los objetos, por la otra. Esta división es, a mi juicio, lo que permite que subsista en la actualidad una ciencia basada en gran medida en un realismo ingenuo, frente a todo un espectro de posturas filosóficas que, si bien cuestionan ese realismo ingenuo con mayor o menor fundamento, por alguna razón, no afectan las bases epistemológicas de esa ciencia. En buenas cuentas, hasta hoy tenemos un “pacto de no agresión” entre Ciencia y Filosofía.
Mi ponencia pretenderá demostrar que los avances de las Neurociencias, pese a que funcionan en base a un dualismo cartesiano, arrojan una serie de conclusiones que vienen, por el contrario, no en ratificar ese dualismo y al realismo naif bajo el cual trabajan, sino que dan la razón a varios planteamientos humeanos y berkelianos, afectando así, directamente el realismo en que cimentan sus bases epistemológicas.
Consecuencias epistemológicas

1.- El Universo, objeto de nuestro conocimiento, es mental, no material.
2.- Se invierte el paradigma materialista. Lo único que podemos constatar, sin lugar a dudas, es nuestro mundo de imágenes mentales. El mundo material es una mera creencia.
3.-El conocimiento no es objetivo. El Universo es un acto de percepción de un único observador, enclaustrado a perpetuidad en un cerebro y rodeado de imágenes mentales.
4.- Clausura Epistemológica de la Consciencia. No se puede recibir ni transferir directamente conocimiento con otro individuo, Cada cerebro, no genera distintos punto de vista de una misma realidad, sino que diferentes realidades totales.
5.- Certeza subjetiva. Siempre será verdad o mentira aquello que le parezca así al observador. Las opiniones de los seres que integran su mundo mental forman parte de su propia duda o certeza.
6.- Buscar la mente en un cerebro es un error perceptivo y epistémico.

BIBLIOGRAFÍA
– AVENARIUS, R., La Filosofía como el Pensar del Mundo de Acuerdo con el Principio de Menor Gasto de Energía, Editorial Losada, Buenos Aires, Argentina, 1947.
– BERKELEY, G., Tratado sobe los Principios del Conocimiento Humano, Editorial Gredos, Madrid, España1982.
– CHALMERS, D., La Mente Consciente, Editorial Gedisa, Barcelona, España, 1999.
– DAMASIO, ANTONIO, El Error De Descartes, Editorial Crítica, Barcelona, España.
– DESCARTES, R., Meditaciones Metafísicas, con Objeciones y Respuestas, KRK Ediciones, Oviedo, España, 2005.
– HUME D., Tratado Sobre la Naturaleza Humana, Editorial Libros en la Red, Albacete, España, 2001.
– LLINÁS, R., El Cerebro y el Mito del Yo, Editorial Norma, Colombia, Bogotá, 2003.
– MORA, F., Cómo Funciona el Cerebro, Alianza Editorial S.A., Madrid, España, 2009.

“Los modelos científicos como artefactos cognitivos”
Nora Schwartz
Universidad de Buenos Aires, Argentina

Diversas concepciones contemporáneas acerca de los modelos científicos parecen basarse en la perspectiva de la cognición distribuida, en la que el concepto de artefacto cognitivo es clave. Tal es el caso de las consideraciones acerca de los modelos de Ronald Giere y Tarjia Knuuttila, entre otros. En efecto, en “Models as Parts of distributed Cognitive Systems”, Giere sostiene que puede pensarse a los modelos en ciencia como respresentaciones externas que componen, junto a los humanos, sistemas cognitivos distribuidos. Por otra parte, en “Models as Epistemic Artefacts: Toward a Non-Representationalist Account of Scientific Representation”, Knuuttila sugiere que los modelos son artefactos epistémicos, cuyas restricciones se tornan facilitaciones para propósitos epistémicos. En este trabajo explicitaré las nociones de cognición distribuida y de artefacto cognitivo con el objetivo de evidenciar de qué manera están presentes en los enfoques mencionados.
De acuerdo a la perspectiva de la cognición distribuida, las cogniciones no tienen un lugar único “dentro” del individuo, sino que están “desparramadas” o “en medio de”, y se reúnen en un sistema que comprende individuos y herramientas suministradas por la cultura. Uno de los sentidos en que puede decirse que la cognición está distribuida es el de distribución de la cognición “en” el medio cultural. La idea central es que la mediación de una actividad a través de artefactos implica la distribución de la cognición entre los individuos, el mediador y el entorno. Las concepciones de los modelos científicos antes aludidas aplican esta idea. En particular, los modelos científicos se piensan como artefactos que forman parte de las actividades epistémicas, i.e., como artefactos epistémicos o cognitivos.

Bibliografía
Cole, M., “Culture and Cognitive Science” en Outlines (2003) Nº1.
Giere, R., en “Models as Parts of distributed Cognitive Systems” en Model-Based Reasoning. Springer US, 2002. 227-241.
Hutchins, E., “Cognitive Artifacts” en The MIT encyclopedia of the cognitive sciences. R. a. Wilson y F. C. Keil. Cambridge, MA., MIT Press, 1999,126-127.
Knuuttila, T., Models as Epistemic Artefacts: Toward a Non-Representationalist Account of Scientific Representation, University of Helsinki, Helsinki, 2005.
Norman, D., La Psicología de los objetos cotidianos, Nerea, San Sebastián, 2011.
Salomon, G. (ed.) Cogniciones distribuidas, Amorrortu, Buenos Aires, 1993.
Simon, H., The Sciences of the artificial, MIT Press, 1996.

“El Círculo de Viena y Kurt Gödel (un acercamiento a su filosofía)”
Pablo Pérez Ayala
Universidad Privada Boliviana, Bolivia

Sus orígenes

El Círculo de Viena surgió a principios de la década de 1920 a 1930, cuando Moritz Schlick llegó de Kiel para ocupar la cátedra de Filosofía en la Universidad de Viena.
En el ámbito filosófico sus principales miembros fueron: Rudolf Carnap, Otto Neurath, Herbert Feigl, Friederich Waismann, Edgar Zilsel y Víctor Kraft.
En el ámbito científico y matemático: Philipp Frank, Karl Menguer, Hans Hahn y Kurt Gödel. Al advertir que tenían un común interés en un conjunto de problemas empezaron a reunirse regularmente, hasta que en 1929 publicaron el manifiesto denominado: “El punto de vista científico del Círculo de Viena”.

El ataque a la metafísica

Consideraban que si la filosofía era una rama auténtica del conocimiento debía alejarse de la metafísica, ya que muchas obras podían tener cierto mérito poético o que expresaban una actitud estimulante ante la vida, pero aun así no expresaban nada que fuera verdadero o falso y, por lo tanto, no podían aportar algo para aumentar el conocimiento.

Sus postulados principales

a) La concepción científica del mundo: su meta es lograr la ciencia unificada, es decir lograr conciliar los resultados de los investigadores individuales con los demás campos de la ciencia.
b) La concepción científica del mundo solamente conoce enunciados experimentales sobre objetos de todo tipo y los enunciados analíticos de la lógica y la matemática.
c) No existe ninguna filosofía universal o fundamental que se encuentre por encima o aparte de los diferentes campos de la ciencia experimental.

Kurt Gödel en el Círculo de Viena

Hacia 1925 o 1926, Gödel conocerá a Hans Hahn, un matemático interesado en cuestiones de fundamentos y de filosofía de las matemáticas que será su introductor en el seminario de Moritz Schlick –cuna del Círculo de Viena–, y su director de tesis. Seguirá también cursos de Heinrich Gomperz sobre historia de la filosofía. A juzgar por los registros de la Biblioteca de la Universidad, empieza a alternar las lecturas de filosofía con las de Lógica. Lee Los Principia Matemática de Russell y Whitehead.

Su platonismo

El platonismo de Gödel plantea diversas cuestiones. En el aspecto biográfico, en 1974, Gödel recordaba que su conversión al platonismo matemático databa de 1925, un año antes de relacionarse con los descreídos del Círculo de Viena. Es cierto, según él, que a finales de los años 20 y principios de los 30, Gödel ya se oponía a la idea de que la matemática fuera sintaxis del lenguaje y creía que esta concepción carnapiana era refutada por sus resultados.

Su acercamiento a la fenomenología

Gödel parece sugerir (como un ideal) que deberíamos animarnos a usar el método fenomenológico, formulado por Edmund Husserl, para descubrir los axiomas por los conceptos primitivos de la filosofía. La fenomenología, advierte Gödel, regresa a los fundamentos de nuestro conocimiento, al proceso de cómo nosotros formamos el conocimiento y descubre lo que nos es dado desde el interior.

Su lectura de Kant

El artículo titulado, Algunas observaciones sobre la relación entre la Teoría de la Relatividad y la filosofía kantiana, deja ver algunas reacciones interesantes de frente a la filosofía crítica de Kant. El artículo de Gödel comienza por advertir que él no se considera un partidario de la filosofía kantiana en general.

Su pensamiento filosófico

En su obra: El desarrollo moderno de los fundamentos de las matemáticas a la luz de la filosofía, Gödel comienza por dividir las “visiones del mundo” de acuerdo a los grados de afinidad o distancia con respecto a la metafísica o a la religión. Este ejercicio lo lleva a proponer la siguiente disposición en dos grupos: escepticismo, materialismo y positivismo de un lado; y espiritualismo, idealismo y teología del otro.

Bibliografía consultada
1. Ayer, Alfred Jules. El Positivismo Lógico, FCE, México, 1992.
2. Cardona Suárez, Carlos Alberto. Algunas consecuencias filosóficas del trabajo de Kurt Gödel, Departamento de Ciencias Básicas, Universidad Jorge Tadeo Lozano, Bogotá, 2002.
3. Gödel, Kurt, Obras Completas, Alianza, Madrid, 1981.
4. López Arnal, Salvador, En el Centenario de Kurt Gödel (entrevista con Luís Vega), El Viejo Topo (Ciencia), Madrid, 2006.
5. Martimón, Antonio. Kurt Gödel: la cumbre del imposible matemático, Centenario de Gödel, Madrid, 2006.
6. Neurath, Otto. Manifiesto del Círculo de Viena, Fráncfort del Meno, Frankfurt, 1995.
7. Reale, Giovanni y Antisseri, Darío. Historia del pensamiento filosófico y científico, Herder, Madrid, 1992.
8. Severino, Emanuelle. La Filosofía Contemporánea, Ariel, Barcelona, 1987.

“Dios y las probabilidades de un Universo finamente ajustado. ¿Por qué el Argumento del diseño no funciona?”
Ramiro Frick. Leopordo Soto
Universidad Alberto Hurtado /Instituto de Filosofía y Ciencias de la Complejidad, Departamento de Plasmas Termonucleares, Comisión Chilena de Energía Nuclear, Chile

Hay bastante consenso dentro de la física teórica (e.g. Davies 2003, Collins 2003) en que las condiciones que hacen posible la vida en el Universo sólo pueden ocurrir cuando ciertas constantes físicas universales toman valores dentro de un rango muchísimo menor que el rango de todos los valores posibles. Si el valor de alguna de estas constantes fuera mínimamente distinto, las condiciones resultantes habrían hecho imposible el surgimiento de vida. Dado que en el Universo hay vida, se sigue que el Universo de hecho está «finamente ajustado».
Adicionalmente, hay quienes sostienen que a partir de la idea tradicional del Dios teísta (que entre otras cosas, es omnipotente), se sigue que la probabilidad de que el Universo existente esté finamente ajustado es mucho mayor dada la suposición de que Dios existe, que si no suponemos la existencia de Dios (e.g. Swinburne 2003).
Finalmente, de acuerdo al Principio de Verosimilitud (Edwards 1972; Forster & Sober 2003), una observación O favorece fuertemente a una hipótesis H1 por sobre otra hipótesis H2, si y sólo si H1 asigna a O una probabilidad mucho mayor que la que H2 le asigna a O.

Reuniendo estos tres elementos tenemos el llamado Argumento del Fine-Tuned Universe (AFTU) a favor de la existencia de Dios: dado i) que el universo está finamente ajustado; ii) que la hipótesis de la existencia de Dios asigna una probabilidad mucho mayor que la hipótesis de que Dios no existe a la observación de que el universo está finamente ajustado, y iii) el Principio de Verosimilitud; entonces debemos concluir que el hecho de que el universo está finamente ajustado favorece fuertemente la hipótesis de la existencia de Dios por sobre la hipótesis de que Dios no existe (Manson 2003).
Es interesante notar que luego de examinar variadas dificultades para el naturalismo filosófico, D. M. Armstorng (1999) concluye que uno de los grandes desafíos pendientes para los naturalistas precisamente es hacerse cargo de AFTU. Hasta ahora se han desarrollado muchas estrategias para bloquear este argumento, pero un factor problemático en todas ellas es que involucran y dependen de ideas y teorías altamente especulativas (y contraintuitivas), tales como multiversos (e.g. Linde 1994). Paul Davies lo pone de este modo: «Invoking an infinite number of other universes just to explain the apparent contrivances of the one we see is pretty drastic, and in stark conflict with Occam’s razor» (Davies 1995).
Nuestro objetivo en este trabajo es presentar una estrategia bastante más simple y efectiva que las propuestas hasta ahora para desarmar AFTU, sin la necesidad de hacer especulativas suposiciones cosmológicas especulativas.

Referencias
Armstorng, D. M. (1999) «A Naturalist Program: Epistemology and Ontology»
Collins, R. (2003) «The Evidence for Fine-tuning», en Manson (ed) (2003).
Davies, P. (1995) Are We Alone?, New York: Basic.
Davies, P. (2003). «How bio-friendly is the universe» Int.J.Astrobiol 2 (115): 115.
Edwards, A.W.F. 1972. Likelihood. Cambridge University Press, Cambridge.
Forster, M & Sober, E. (2003) «Why Likelihood?» en Taper, M. & Lee, (eds). (2003)
Taper, M. & Lee, (eds). (2003) The Nature of Scientific Evidence, Chicago: University of Chicago Press.
Linde, A (1994) «The Self-Reproducing Inflationary Universe», Scientific American, 271 (5), 32-39.
Manson, N. (ed.) (2003) God and Design: The Teleological Argument and Modern Science. London and New York: Routledge.
Swinburne, R. (2003) » The Argument to God from Fine-Tuning Reassessed», en Manson (ed) (2003)

“Sobre el “Efecto de Gettier” y la Prueba Judicial : una repercusión epistemológica”
Robert Calabria Díaz
Universidad de la República, Uruguay

En (2010) y (2011), Michael S. Pardo argumenta a favor de la tesis de que lo que socava el conocimiento en los contraejemplos de Gettier socava, asimismo, el logro específico de una prueba judicial análogamente afectada concluyendo que si lo que intentamos en una prueba judicial es obtener conclusiones conocidas, la significación práctica de la reflexión epistemológica sobre el conocimiento más allá de la creencia justificada y verdadera es enorme.

En lo que sigue nos inscribiremos en la línea de investigación del autor desde una perspectiva que se pretende no técnico-jurídica sino, en general, filosófica y en particular , epistemológica.
Expondremos un ejemplo de Pardo en (2010) encaminados a ilustrar la tesis y otros dos propios

De lo anterior surgirá que la propuesta de resolver los ejemplos de Gettier como “casos especiales de conocimiento” debe abandonarse.

Ejemplo de Pardo (2010)

Una patrulla policial arresta a un conductor y “planta” drogas en su auto. Se lo somete a juicio y es condenado por tenencia ilegal de drogas sobre la base del parte policial y de la evidencia material de las drogas “plantadas”. Ahora bien, por otro lado, sin que se descubriesen nunca, el acusado tenía realmente drogas en un escondite dentro del coche.

Así que el valor alético de la sentencia judicial es verdadero y el juez que actúa en el caso está justificado en su sentencia (por la única evidencia disponible: las drogas “plantadas”). La aceptación por parte de los órganos judiciales actuantes de la proposición de la sentencia corresponde al componente doxástico de los usuales ejemplos de Gettier. Y es clara la problematicidad de dicha sentencia : la verdad de la misma no tiene nada que ver con la justificación en que se apoya.

Nuestra continuación: el policía arrepentido

Supóngase que muy posteriormente a la condena del acusado un policía se presentase a su abogado defensor comunicándole que había actuado en el procedimiento, que estaba dispuesto a confesar la trampa ante el juez y que poseía evidencia conclusiva contra los policías complotados. El resultado de este nuevo proceso ¿no debería culminar en la condena de los policías y en alguna forma de anulación del fallo judicial anterior y/o de sus consecuencias visto que estaba viciado por basarse en evidencia falsa? A mí me parece que sí. Pero obsérvese ahora que si en la legislación del estado en que eso ocurre se establece rígidamente que la apelación debe probar la inocencia del acusado entonces , en caso de ser exitosa , la prueba judicial terminaría estableciendo una falsedad: el acusado tenía drogas en su auto. Así que en esta nueva situación también la prueba judicial queda viciada

El guardavidas huelguista

Un guardavidas costero, acatando una medida de su sindicato determina permanecer en la orilla sin cumplir funciones. En el mar se divisa una persona dando muestras de estar en dificultades y pidiendo auxilio. Pero el guardavidas no la asiste, cumpliendo con la medida. Testigos ven que la persona se hunde. Luego el mar trae un cadáver a la costa, la pericia forense determina muerte por inmersión. El guardavidas es juzgado y condenado por omisión de asistencia con consecuencias de muerte. El guardavidas se resigna a la condena. Sin embargo lo que en realidad ocurrió es que otro guardavidas opositor a la medida de huelga fingió correr peligro para perjudicar a su colega y eso es lo que dio lugar a lo visto desde la playa . Este otro guardavidas después de sumergirse bucea y vuelve a tierra en otra costa lejana a los sucesos en consideración. Por otra parte otro hombre sin ser visto por nadie pero accesible a la visión desde la caseta del guardavidas, realmente se ahog
a y es el cadáver arrastrado a la costa.
Así que el guardavidas:
1. cree que una persona murió por causa de su omisión de asistencia, 2. Está justificado en creerlo dado lo visto por él y otros muchos en la costa. 3. En efecto un hombre murió por su omisión: si hubiera estado en la caseta habría visto a este otro hombre .

Sin embargo el guardavidas está bajo el efecto Gettier: por lo que él realmente sabe podría no haber muerto ningún bañista. Su justificación no tiene nada que ver con la verdad de su creencia.

Y a su vez , la sentencia judicial que lo culpabiliza es errónea visto que la omisión de asistencia es punible sólo si se puede atribuir conocimiento al acusado y en este caso el guardavidas no sabe que el occiso lo fue por su omisión.

De acuerdo a estos ejemplos estimamos que la pretendida solución al problema de Gettier vía la suposición de que se trata de casos especiales de conocimiento es errónea y debe desecharse.

Bibliografía.
– Gettier, E.
(1963) “Is Justified True Belief Knowledge?” Analysis 121
– Pardo, M. S
(2010) “The Gettier Problem and Legal Proof”, Legal Theory 37, Cambridge U.P.
(2011) “More on the Gettier Problem and Legal Proof”, Legal Theory 17
– Lycan, W.
(2006) “On the Gettier Problem Problem” en Hetherington (eds.) Epistemology Futures, Oxford .U.P

“Empatía y Otras Mentes: dos estrategias para el problema social de la mente ajena”
Rodolfo Esteban Tapia León, Rodrigo González F.
Universidad de Chile, Chile

El problema de las otras mentes (OM), busca justificar la creencia de que los demás tienen vida mental similar a la propia. Su principal dificultad, es que la mente no es un fenómeno que pueda ser observado directamente (KRUEGER, 2012), a diferencia de la conducta y los reportes verbales. Así, usualmente se argumenta que no hay justificación para atribuir vida mental a nadie salvo a uno mismo.

Resolver OM implica un nuevo problema pues, aceptar que los otros tienen una mente similar a la propia, implicaría la posibilidad de atribuir modos o estados en que esa mente se manifiesta a esos sujetos. Por ejemplo, si S tiene una mente similar a la propia, es posible atribuirle experiencias como el dolor, emociones como felicidad y angustia, actitudes intencionales como deseos y creencias, etc. En el caso de los humanos, esta postura asume que la atribución no es instrumental (DENNETT, 1989, pág. 33-34), sino que existe conocimiento de la mente ajena. Explicar cómo y qué es lo que se conoce de ésta es el problema de la empatía (EM).
Éste pregunta: ¿Cómo podemos conocer, distinguir y caracterizar los estados mentales ajenos que permiten predecir y explicar la conducta, si estos son esencialmente percibidos solo desde una perspectiva subjetiva? (KRUEGER, 2009) La diferencia con OM, es que este último apunta a la relación de un sujeto con su propia mente y a determinar si esa relación es verdadera, lo que no requiere necesariamente datos subjetivos. Por su parte, EM apuesta a conocer de algún modo datos relevantes. Por ejemplo, cuando se atribuye dolor a un sujeto que se martilló el pulgar, se atribuye a S dolor, pero en cuanto lo está experimentando de cierta forma (cómo él mismo lo experimenta), es decir, ya no se pregunta si S puede sentir dolor (OM), sino qué experiencia S está teniendo, la cual puede conocerse desde el punto de vista de S (EM) . Aunque diferentes, OM y EM están relacionados, pues dan cuenta del conocimiento de algún aspecto de la mente ajena y del problema que ello implica.

Considerando su estrecha relación, el presente trabajo tiene por objetivo examinar ambos problemas por separado para esclarecer si cada uno podría resolver el otro. Se sostendrá que, si no hay otras mentes, no puede haber certeza sobre la atribución de estados mentales ajenos; y, si las atribuciones son verdaderas, entonces existirían otras mentes .

Para resolver OM, la estrategia consiste en asumir una postura default, i.e., se considerará que la proposición “los otros tienen una mente como la mía” es verdadera en tanto se apoya en el denominado background serleano; este otorga condición de posibilidad y sentido para el lenguaje y la acción social (SEARLE, 1998, pág. 9-10); de este modo, la atribución de estados mentales a otros estará justificada.

Para resolver EM, sin embargo, es necesario superar el problema de la subjetividad de los estados mentales. Para ello se considerarán las teorías de mente extendida , cognición corporizada y enactiva, ya que sugieren que la mente y la cognición pueden entenderse y explicarse a situaciones que impliquen más allá que la caja craneana. Argumentamos que estas posturas representan una base para examinar la mente ajena, con lo cual se superaría la privacidad cartesiana de lo mental (ROWLAND, 2003, pág.3, 17-18).

Con base en nuestro análisis, concluiremos que las estrategias para resolver EM y OM se retroalimentan:

1. La postura default para OM, a saber, el mentalismo convencional biológico (MCB), permite justificar la atribución de estados mentales ajenos.

2. Dicha atribución se vincula con teorías alternativas en ciencia cognitiva, en especial, de cómo EM resuelve OM.
La estrategia 1 apunta a disolver el problema epistemológico asociado a OM y EM. Razón: el background biológico, que involucra esa posición, justifica nuestra navegación en la realidad social. La estrategia 2 esclarece la cuestión ontológica acerca de OM y EM, al arrojar luz sobre cómo la mente existe, tanto la propia como la ajena. Las consecuencias de 1 y 2 son: MCB permite neutralizar el solipsismo cartesiano, sugiriendo que no estamos solos en el mundo. El hecho de que seamos animales capaces de interactuar no solo físicamente sino socialmente con otros, además de permitir recolectar datos empíricos novedosos que corroboren las teorías producto de 2, favorece un cambio de paradigma para la ciencia de la mente, la cognición y la realidad social.

Bibliografía Básica:
DENNETT, D. (1998) La actitud intencional; Gedisa, Barcelona.
KRUEGER, J. (2012) “Seeing mind in action”; Phenomenology and the Cognitive Sciences, vol. 11: 149-173.
—————- (2009) “Empathy and the extended mind”; Zygon, vol. 44, no. 3: 675-698.
ROWLAND, M. (2003) New science of Mind. From Extended Mind to Embodied Phenomenology; MIT Press, Cambridge, UK.
SEARLE, J. (1998) Mind, Language, and Society. Philosophy in the real World; Basic Books, New York.

“Propiedades Emergentes en Ciencias Cognitivas Corporeizadas”
Rodrigo Adrián Lagos. Ramiro Frick
Pontificia Universidad Católica de Chile /Universidad Alberto Hurtado, Instituto de Filosofía y Ciencias de la Complejidad, Chile

En el contextos de la metafísica y filosofía de las ciencias Jaegwon Kim ha desarrollado a lo largo de varios trabajos una poderosa línea argumental en contra la idea de propiedades emergentes (e.g. Kim 1999), al punto que sus argumentos constituyen hoy en día una posición de referencia obligatoria para quienes se interesan en estos temas. En contraste, la filosóficamente controvertida noción de emergencia aparece (junto con ideas afines, tales como «causación descendente») una y otra vez en distintos dominios científicos, desde la biología proto-celular hasta la ecología, pasando por diversas ciencias sociales y ciencias cognitivas (Serra et al 2007, Breckling et al 2005, Dosi et al 1999).
Nuestro principal objetivo aquí será evaluar la posible aplicación y utilidad de la noción de propiedad emergente en las Ciencias Cognitivas Corporeizadas, un relativamente nuevo programa de investigación en ciencias cognitivas (Varela et al 1991, Thompson & Varela 2001, Shapiro 2011). Para ello revisaremos críticamente diversas propuestas de conceptualización de la emergencia, y examinaremos con cierta detención algunos fenómenos y resultados empíricos de estudios en ciencias cognitivas corporeizadas que podrían entenderse en términos de propiedades emergentes.

Referencias
Serra, R. Carletti, T. Poli, I. Villani, P, & Filisetti, A. (2007) «Conditions for emergent synchronization in protocell». In J. Jost and D. Helbing (eds): Proceedings of ECCS07: European Conference on Complex Systems.
Breckling, B., Muller, F., Reuter, H., Hölker, F. & Fränzle, O. (2005). «Emergent properties in individual-based ecological models—introducing case studies in an ecosystem research context». Ecol. Model 186: 376–388.
Dosi, G., Marengo, L., Bassanini, A. & Valente, M. (1999) «Norms as Emergent Properties of Adaptive Learning: The Case of Economic Routines», Journal of Evolutionary Economics 9: 5–26.
Kim, J. (1999) “Making Sense of Emergence,” Philosophical Studies, 95: 3–36.
Shapiro, L. (2011) Embodied Cognition. New York: Routledge.
Thompson, E. & Varela, F.J. (2001) «Radical embodiment». Trends Cognit Sci 5(10): 418-425
Varela, F.J., Thompson, E. & Rosch, E. (1991) The Embodied Mind: Cognitive science and human experience. Cambridge, MA: MIT Press.

“Ciencias de Diseño y racionalización de la acción”
Rodrigo Antonio Lagos Vargas
Universidad de Los Lagos, Chile

La presente comunicación expondrá una propuesta de marco teórico-explicativo de la acción práctica intencionada. Dicha propuesta, se funda en aquel campo definido como Ciencias de Diseño,
abordado por autores como H. Simon, R. J. Mcrory y Estany e Izquierdo y que afirma un estatuto metodológico diferente al de otras Ciencias como las de la Naturaleza. Lo distintivo respecto de estas últimas, es que estas se caracterizan por buscar una transformación de la realidad y no tan sólo describirla.

Esta situación, igualmente, plantea ciertas diferencias en el papel que juegan los valores epistémicos
al momento de desarrollar sus respectivos programas de investigación; por una parte, en las ciencias
“descriptivas”, los valores epistémicos son cruciales están en el núcleo de su quehacer (promoviéndola y controlándola); por otro lado, en las ciencias de diseño, los valores epistémicos son una parte de los valores a considerar, ya que compartirían su relevancia, con otros aspectos igualmente decisivos, como los valores económicos, éticos y políticos.

Por otro lado, la definición y resultado del quehacer de las ciencias de diseño persigue la generación de reglas de acción que permitan la adecuada intervención del mundo, que sean capaces de asegurarnos su transformación y hagan posible una racionalización de la acción práctica y que permita establecer una norma técnica que oriente la acción de modo racional y con la evidencia empírica requerida.

Finalmente, este enfoque de las ciencias de diseño busca expresar que la modificación intencionada del mundo y de sus usuarios es posible y sostenible en virtud del desarrollo de una acción que no sólo considere aspectos cognitivos o instrumentales, sino que además, considere el conjunto de valores vinculados al resultado establecido como valioso o eficiente para la sociedad, apuntando finalmente a un concepto de progreso, como el definido por Bunge, gracias a la noción de praxiología.

Referencias bibliográficas básicas.
Estany, A., & Izquierdo Aymerich, M. (2001). Didactología: una ciencia de diseño. Éndoxa, (14), 13-33.
Mccrory, R.J. (1963), The design method – A scientific approach to valid design,
The American society of mechanical engineers. Repr. In F. Rapp (ed),
Contributions to philosophy of technology, pp. 158.
Simon, H. A. (2006) Las ciencias de lo artificial. Granada, Editorial Comares.

“A crítica ao holismo confirmacional de Quine em Penelope Maddy”
Ronaldo Pimentel
Instituto Federal da Bahia – IFBA, Brasil

Esse trabalho se dedica a expor um ponto em que a filosofia de Maddy se choca com o pensamento de Quine em relação ao holismo confirmacional. O holismo confirmacional entende que toda a ciência pode sofrer mudanças a partir do teste empírico, inclusive a matemática. A ciência como um “sistema de crenças” unificado está totalmente sujeita ao tribunal da observação. Aqui está a ideia de Quine de que todas as teorias científicas estão sob o controle empírico, inclusive a matemática. Para contrapor essas ideias, o argumento de Maddy é que teorias matemáticas podem não se envolver em questões de aplicabilidade da matemática. Para mostrar como isso ocorre Maddy estuda os processos de justificação de crenças nos axiomas da teoria de conjuntos. Essas justificações são divididas em intrínsecas e extrínsecas. Quando a justificação de um axioma é intrínseca significa que ele é congênere a um conceito de conjunto. Quando a justificação dos axiomas da teoria de conjuntos é extrínseca significa que o axioma é útil para a demonstração de um teorema específico. Essa exigência teórica não se limita a demonstrar teoremas úteis à aplicabilidade da matemática já que um teorema matemático pode ser usado para resolver problemas teóricos internos à matemática. O naturalismo de Maddy é menos normativo que a filosofia ainda empirista de Quine. Isso acontece porque Maddy propõe que a matemática seja capaz de demonstrar uma quantidade de teoremas grande o bastante para resolver a maior quantidade possível de problemas matemáticos mesmo que esses teoremas não possuam uma aplicação empírica evidente.

Maddy, Penelope, “Naturalism in Mathematics”, Oxford, Oxford University Press, 1997
Maddy, Penelope, “Second Philosophy”, Oxford, Oxford University Press, 2007
Maddy, Penelope, “Defending the Axioms”, Oxford, Oxford University Press, 2011
Quine, Willard, V., Ullian, J. S. “The Web of Belief”, New York, McGrall-Hill, 1978
Quine, Willard, V., “Quintessence”, Cambridge Mass, Harvard University Press, 2004

“Filosofía, Psicología y el Origen Evolutivo de las Capacidades Cognitivas”
Victorino Javier Pérez Díaz
Universidad Mayor, Chile

En filosofía de la mente, psicología y ciencia cognitiva, la capacidad o habilidad para atribuir estados mentales o intencionales (creencias y deseos) que permiten predecir y explicar la conducta de otros se denomina Psicología Popular (o Teoría de la Mente). Existe cierto consenso general respecto de qué es la psicología popular: los debates recientes se centran, no obstante, en cómo se lleva a cabo. Los ‘teóricos de la teoría’ plantean que la atribución de estados mentales se logra mediante un cuerpo de conocimiento, en gran parte tácito, sistemáticamente organizado (‘teoría’) sobre los estados intencionales y sus interrelaciones. Los ‘teóricos de la simulación’, por su parte, sostienen que nuestra comprensión de los otros depende de una habilidad práctica diferente y opuesta a una teoría: dado que la mayoría posee una estructura psicológica similar, podemos usar nuestros propios estados y procesos mentales para predecir lo que otros harían en cierta situación. Ambos enfoques incluyen posiciones diferentes, y existen propuestas que toman elementos de ambos para promover ‘modelos híbridos’.
También existe discusión sobre las bases biológicas, desarrollo y origen evolutivo de la psicología popular. Propuestas tanto de la ‘teoría de la teoría’ como de la ‘teoría de la simulación’ sostienen que la psicología popular es ‘modular’: una capacidad cognitiva “hecha a la medida” para resolver problemas ambientales específicos y que funciona de manera autónoma de otras capacidades. Las propuestas ‘modulares’ están estrechamente relacionadas con la visión que la psicología popular es una adaptación biológica innata, que surge como una respuesta a las presiones selectivas que favorecen ciertas habilidades sociales. Sin embargo, si estas propuestas postulan un componente sustancial innato, surge la pregunta sobre qué presiones selectivas influenciaron su desarrollo o aparición: el núcleo de la psicología popular involucraría una habilidad para reconocer que las creencias, deseos e intenciones de los otros, difieren de las de uno mismo. Un contexto donde podría utilizarse dicha habilidad sería en el de la manipulación/engaño. De aquí que la psicología popular sea complementada con la hipótesis de la ‘inteligencia maquiaveliana’, según la cual una presión selectiva primaria que produjo el desarrollo cerebral/mental humano fue la interacción estratégica, donde la competencia social condujo al desarrollo de mecanismos cada vez más sofisticados para la interpretación mental.
Actualmente, existen modelos teóricos sobre la evolución cognitiva humana que critican, e intentan superar, la base competitiva de la hipótesis de la ‘inteligencia social’. Estos nuevos modelos basan su fuerza argumentativa tanto en una base cooperativa y en la dependencia o ‘apoyo’ en recursos ambientales de ciertos procesos cognitivos. Asimismo, estos modelos critican la base o los supuestos teóricos que sustentan el componente modular innato de la ‘visión heredada’ sobre la psicología popular.
Realizando una revisión de los argumentos sobre la naturaleza de la psicología popular y de los modelos sobre evolución cognitiva humana, este trabajo pretende ser una contribución al debate contemporáneo sobre el origen y función de la psicología popular o teoría de la mente.

Bibliografía
– Carruthers, P., & Smith, P. K. (Eds.). (1996). Theories of theories of mind. Cambridge: Cambridge University Press.
– Carruthers, P., & Chamberlain, A. (Eds.). (2000). Evolution and the human mind: Language, modularity, and social cognition. Cambridge: Cambridge University Press.
– Goldman, A. I. (2006). Simulating minds: The philosophy, psychology and neuroscience of mindreading. Oxford: Oxford University Press.
– Heyes, C., & Huber, L. (Eds.). (2000). Evolution of cognition. Cambridge, MA: MIT Press.
– Hutto, D. D. (2008). Folk psychological narratives: The sociocultural basis of understanding reasons. Cambridge, MA: MIT Press.
– Nichols, S., & Stich, S. (2003). Mindreading: An integrated account of pretense, self-awareness and understanding other minds. Oxford: Oxford University Press.
– Sperber, D. (Ed.). (2000). Metarepresentations: A multidisciplinary perspective. New York: Oxford University Press.
– Sterelny, K. (2003). Thought in a hostile world. Oxford: Blackwell.
– Sterelny, K. (2012). The evolved apprentice. Cambridge, MA: MIT Press.
– Tomasello, M. (1999). The cultural origins of human cognition. Cambridge, MA: Harvard University Press.
– Zawidzki, T. W. (2013). Mindshaping: A new framework for understanding human social cognition. Cambridge, MA: MIT Press.