|
"INTRODUCCIóN FILOSóFICA": (TRABAJO DE INVESTIGACIóN Nro. 11)
área de publicación: Filosofía
Responsable de trabajo: Profesor JOSÉ LUIS DELL'ORDINE
E-MAIL: dellordine@arnet.com.ar
Objetivo temático: No es posible definir la filosofía sin recurrir a su historia. Su concepto es inherente a la misma historia de la filosofía. Se va desarrollando a lo largo del tiempo a través de la secuencia de relatos y escritos, que marcan líneas de continuidad y de ruptura, de posturas semejantes o antagónicas, utilizando los medios conceptuales, procedimentales y actitudinales.
índice:
1) Comentario introductorio (inducción)
1) Introducción: Bacon, Francis, barón de Verulam
1- Vida
2- Obra
1) Introducción: Hume, David
1- Vida y Obra
2- Filosofía: 3.1: Metafísica y epistemología; 3.2: Ética
3- Historiador y Economista
1) Introducción: LóGICA: 2. Lógica Aristotélica; 3. Lógica Moderna; 4. Áreas Relacionadas.
1) Introducción: PROBABILIDAD: 2. Cálculo de Probabilidades en experiencias compuestas; 3. Ley de los grandes números;
-Bibliografía utilizada.
1) Comentario Introductorio: Inducción
Inducción (filosofía), en el campo de la lógica, proceso en el que se razona desde lo particular hasta lo general, al contrario que con la deducción. La base de la inducción es la suposición de que si algo es cierto en algunas ocasiones también lo es en situaciones similares aunque no se hayan observado. La probabilidad de acierto depende del número de fenómenos observados. Una de las formas más simples de inducción aparece al interpretar las encuestas de opinión, en las que las respuestas dadas por una pequeña parte de la población total se proyectan para todo un país. El razonamiento inductivo fue desarrollado por varios filósofos, desde Francis Bacon hasta David Hume, John Stuart Mill y Charles Sanders Peirce.
1. INTRODUCCIóN Bacon, Francis, barón de Verulam (1561-1626), filósofo y estadista inglés, uno de los pioneros del pensamiento científico moderno.
2. VIDA
Nació el 22 de enero de 1561, en York House, en el Strand de
Londres, y estudió en el Trinity College de la Universidad de Cambridge.
Elegido para la Cámara de los Comunes en 1584, intervino en ella hasta 1614.
Escribió cartas aconsejando a Isabel I, monarca de Inglaterra, pero sus sugerencias
no fueron nunca atendidas y perdió por completo el favor de la reina en 1593,
cuando se opuso a una ley para una subvención real. Sin embargo, recuperó el
respeto de la Corte con el ascenso de Jacobo I al trono de Inglaterra en 1603.
Bacon aportó ideas para la unión de Inglaterra y Escocia y recomendó medidas
para un acercamiento a la Iglesia católica apostólica romana. Por estos
esfuerzos se le concedió el título de sir en 1603. Fue nombrado comisario para
la unión de Escocia e Inglaterra y se le otorgó una pensión en 1604. Su ensayo El
avance del conocimiento fue publicado y presentado al rey en 1605. Dos años
después fue nombrado procurador general.
En la última sesión del primer Parlamento celebrada en febrero de
1611, presidida por Jacobo I, aumentaron las diferencias entre la Corona y los
Comunes y Bacon hizo de mediador a pesar de su desconfianza hacia el principal
ministro del rey, Robert Cecil, primer conde de Salisbury. A la muerte de
Salisbury en 1612, Bacon, con el objeto de conseguir la atención real, escribió
varios artículos sobre el arte de gobernar, poniendo énfasis en las relaciones
entre la Corona y los Comunes. En 1613 fue nombrado fiscal de la Corona.
En 1616 Bacon se convirtió en consejero privado y en 1618 fue
designado presidente de la Cámara de los Lores y ennoblecido con el título de
barón de Verulam. En 1620 se publicó su Novum organum, y el 26 de enero
de 1621 fue nombrado vizconde de san Albans. En el mismo año el Parlamento le
acusó de aceptar sobornos. Lo reconoció, pero dijo que se sentía
"arrepentido" y se sometió a la voluntad de sus pares, que decidieron
que fuera multado, encarcelado a voluntad del rey y desterrado del Parlamento y
de la Corte. Tras su liberación se retiró a su residencia familiar de Gorhambury.
En septiembre de 1621 el rey le perdonó pero le prohibió que regresara al
Parlamento o a la Corte. Volvió entonces a sus estudios y terminó de escribir
la Historia de Enrique VII y su traducción al latín de El avance del
conocimiento (De Augmentis). En marzo de 1622 se ofreció para hacer
un digesto de las leyes, proyecto que no prosperó a pesar de las repetidas
peticiones a Jacobo I y a su sucesor Carlos I. Murió en Londres el 9 de abril
de 1626.
3. OBRA
Los escritos de Bacon se engloban en tres categorías: filosófica,
literaria y política. Sus mejores obras filosóficas son El avance del
conocimiento (1605), un análisis en inglés sobre la consciencia de su
propio tiempo, y Novum Organum o Indicaciones relativas a la
interpretación de la naturaleza (1620).
La filosofía de Bacon influyó en la creencia de que la gente es sierva e intérprete de la naturaleza, de que la verdad no se deriva de la autoridad y que el conocimiento es fruto de la experiencia. Se le reconoce haber aportado a la lógica el método experimental inductivo, ya que anteriormente se practicaba la inducción mediante la simple enumeración, es decir, extrayendo conclusiones generales de datos particulares. El método de Bacon consistió en inferir a partir del uso de la analogía, desde las características o propiedades del mayor grupo al que pertenece el dato en concreto, dejando para una posterior experiencia la corrección de los errores evidentes. Este método representó un avance fundamental en el método científico al ser muy significativo en la mejora de las hipótesis científicas.
Su Novum Organum influyó mucho en la aceptación en la ciencia de una observación y experimentación precisas. En esta obra mantenía que había que abandonar todos los prejuicios y actitudes preconcebidas, que llamó ídolos, ya fueran la propiedad común de la especie debido a modos comunes de pensamiento ("ídolos de la tribu") o propios del individuo ("ídolos de la caverna"); ya se debieran a una dependencia excesiva del lenguaje ("ídolos de la plaza del mercado") o de la tradición ("ídolos del teatro"). Los principios que se plantean en Novum Organum tuvieron gran importancia en el subsiguiente desarrollo del empirismo.
Los Ensayos de Bacon, su mayor contribución a la
literatura, fueron publicados entre 1597 y 1625. Su Historia de Enrique VII
(1622) evidenció sus habilidades en la investigación erudita. En su utópica Nueva
Atlántida sugería la creación de academias científicas. Su obra profesional
incluye Máximas del Derecho (1630), Lectura sobre el estatuto de los
usos (1642), súplicas de casos legales y discursos en el Parlamento. La
idea de que Bacon, en vez de un desconocido actor de Stratford-upon-Avon, es el
auténtico autor de las obras de teatro de William Shakespeare ha sido
descartada por completo.[1]
1. INTRODUCCIóN Hume, David (1711-1776), filósofo, historiador y economista escocés. Su pensamiento ejerció una notable influencia en el desarrollo del escepticismo y del empirismo.
2. VIDA Y OBRA
Nacido el 7 de mayo de 1711 en Edimburgo, estudió en la
Universidad de Edimburgo, institución en la que se inscribió con 12 años de
edad. Después de trabajar durante un corto periodo de tiempo en el negocio que
su padre tenía en Bristol, se instaló en Francia. Desde 1734 hasta 1737 estudió
con apasionamiento los problemas de la filosofía especulativa. Durante este
periodo escribió Tratado sobre la naturaleza humana (3 vols.,
1739-1740), que constituye la síntesis de su pensamiento. A pesar de su
importancia, esta obra fue ignorada por el público pues, como dijo el propio
Hume, "nació muerta", tal vez debido a su estilo abstruso. Esta circunstancia
determinó que sus posteriores trabajos fueran escritos en forma de ensayos más
accesibles. Después de la publicación del Tratado, Hume regresó a la
propiedad que su familia tenía en Berwickshire, donde se dedicó al estudio de
problemas de ética y economía política. Allí escribió Ensayos morales y
políticos (2 vols., 1741-1742), que obtuvieron un éxito inmediato. Pese a
ello, no consiguió ganar la cátedra de Filosofía en las universidades de
Edimburgo y Glasgow, pues fue considerado un escéptico (e incluso ateo) en
asuntos religiosos. Posteriormente trabajó como tutor del marqués de Annandale
y, más tarde, como auditor de guerra por efecto de una incursión militar
británica en Francia. En 1748 vieron la luz sus Ensayos filosóficos sobre el
entendimiento humano, obra más conocida por el título de Investigación
sobre el entendimiento humano con que fue reeditada en 1751. Este libro,
quizá su obra más conocida, no es sino un resumen, más claro, de su Tratado.
En 1751 fijó su residencia en Edimburgo y un año más tarde fueron
publicados sus Discursos políticos. En 1753, tras un nuevo fracaso en su
intento de acceder a una cátedra universitaria, fue nombrado bibliotecario del
Colegio de Abogados de Edimburgo. En el ejercicio de este puesto (que se
prolongó durante 12 años), se dedicó a la redacción de los seis volúmenes que
finalmente integraron su Historia de Inglaterra, publicada por entregas
entre 1754 y 1762. Desde este último año hasta 1765 fue secretario del
embajador británico en París. Su obra fue elogiada en los círculos literarios
parisinos. En esta ciudad forjó su amistad con el filósofo francés Jean-Jacques
Rousseau, quien le acompañó en su regreso a Gran Bretaña. Pero éste, afectado
por supuestas persecuciones, acusó a Hume de tramar contra él, con lo que su
amistad quedó disuelta tras un mutuo intercambio de reproches y denuncias
públicas. Después de trabajar como subsecretario de Estado en Londres
(1767-1768), se retiró a Edimburgo, donde pasó el resto de su vida. Falleció el
25 de agosto de 1776. Tras su muerte, con carácter póstumo, aparecieron su
autobiografía (1777) y Diálogos sobre la religión natural (1779). Hume
había escrito este último ensayo hacia 1750, pero prefirió ocultarlo por la
naturaleza escéptica de su contenido.
3. FILOSOFíA
El pensamiento filosófico de Hume estuvo profundamente influido
por las teorías de John Locke y George Berkeley. Al igual que este último,
diferenciaba entre la razón y los sentidos. Pero Hume fue más allá e intentó
probar que la razón y los juicios racionales son tan sólo asociaciones
habituales con diferentes sensaciones o experiencias.
3.1. Metafísica y epistemología
Hume dio un paso revolucionario en la historia de la filosofía
occidental al rechazar la idea de causalidad, argumentando que "la razón nunca
podrá mostrarnos la conexión entre un objeto y otro si no es ayudada por la
experiencia y por la observación de su relación con situaciones del pasado.
Cuando la mente, por tanto, pasa de la idea o la impresión de un objeto, a la
idea o creencia en otro, no se guía por la razón, sino por ciertos principios
que asocian juntas las ideas de esos objetos y los relaciona en la
imaginación". El rechazo de la causalidad implica también un rechazo de las
leyes científicas, que se basan en la premisa de que un hecho provoca otro de
forma necesaria y, como resulta predecible, siempre lo hará. Según la filosofía
de Hume, por tanto, el conocimiento de los hechos es imposible, aunque admitía
que en la práctica las personas tienen que pensar en términos de causa y
efecto, y que deben asumir la validez de sus percepciones para no enloquecer.
También admitía la posibilidad de conocimiento sobre las relaciones entre las
ideas, como las relaciones entre los números en matemáticas. Su escéptico
planteamiento también negaba la existencia de la "sustancia espiritual"
defendida por Berkeley y de la "sustancia material" defendida por Locke. Yendo
aún más lejos, Hume negaba la existencia de una identidad del yo, argumentando
que como las personas no tienen una percepción constante de sí mismas como
entidades diferentes, no son más que "un conjunto o colección de diferentes
percepciones".
3.2. Ética
En cuanto a la dimensión ética de su pensamiento, Hume pensaba que
los conceptos del bien y el mal no son racionales, sino que nacen de una
preocupación por la felicidad propia. El supremo bien moral, según su punto de
vista, es la benevolencia, un interés generoso por el bienestar general de la
sociedad que definía como la felicidad individual.
4. HISTORIADOR Y ECONOMISTA
Como historiador, Hume rompió con la tradicional reseña
cronológica de hazañas y hechos de Estado, e intentó describir las fuerzas
económicas e intelectuales que habían tenido importancia en la historia de su
país. Su Historia de Inglaterra se consideró un título clásico durante
muchos años. Sus contribuciones a la teoría económica, que influyeron en el
filósofo y economista escocés Adam Smith y en otros economistas posteriores,
incluyeron la teoría de que la riqueza depende no sólo del dinero sino también
de las mercancías, así como el reconocimiento de los efectos que las
condiciones sociales tienen sobre la economía.[2]
Mill, John Stuart (1806-1873), filósofo y economista británico, hijo de James Mill; su obra causó gran impacto en el pensamiento británico del siglo XIX, no sólo en filosofía y economía sino también en las áreas de ciencia política, lógica y ética. Nacido en Londres el 20 de mayo de 1806, Mill recibió de su padre una amplia y temprana formación inhabitual. Empezó a estudiar griego a los 3 años. Con 17 años, había terminado cursos de estudios avanzados y profundos de literatura y filosofía griega, química, botánica, psicología y derecho. En 1822 Mill empezó a trabajar como empleado con su padre en la oficina de inspección de la Compañía de las Indias, y fue ascendido seis años más tarde al cargo de inspector asistente. Hasta 1856 tuvo la responsabilidad de las relaciones de la compañía con los principescos estados de la India. En su último año en el cargo, Mill fue nombrado jefe de la oficina de inspección, puesto que ocupó hasta la disolución de la compañía en 1858, cuando se retiró. Mill vivió en Saint Véran, cerca de Aviñón, en Francia, hasta 1865, cuando entró en el Parlamento como diputado por Westminster. Al no salir reelegido en las elecciones generales de 1868, volvió a Francia, donde estudió y escribió. Murió el 8 de mayo de 1873 en Aviñón.
A Mill se le considera figura puente entre la inquietud del siglo XVIII por la libertad, la razón y la exaltación del ideal científico y la tendencia del XIX hacia el empirismo y el colectivismo. En filosofía, sistematizó las doctrinas utilitaristas de su padre y de Jeremy Bentham en obras como Utilitarismo (1836), donde defendía que el conocimiento descansa sobre la experiencia humana y ponía de relieve el papel de la razón humana. En economía política, Mill defendió aquellas prácticas que creía más acordes con la libertad individual, y recalcó que la libertad podía estar amenazada tanto por la desigualdad social como por la tiranía política, ideas que expuso en el que quizá sea el más famoso de sus ensayos, Sobre la Libertad (1859). Estudió las doctrinas socialistas premarxistas, y, aunque no llegó a ser considerado un socialista, luchó de forma muy activa por mejorar las condiciones de los trabajadores. En el Parlamento, Mill fue considerado un radical al defender medidas como la propiedad pública de los recursos naturales, la igualdad de las mujeres, la educación obligatoria y el control de natalidad. Su defensa del sufragio femenino en los debates sobre el Programa de Reformas de 1867 llevó a la formación del movimiento sufragista. Mill también investigó la causalidad, buscando una explicación en términos de principios empíricos. Entre sus numerosos escritos destacados figuran Principios de economía política (1848), Sobre la esclavitud de las mujeres �(1869), Autobiografía (1873) y Tres ensayos sobre religión (1874).[3]
Peirce, Charles Sanders (1839-1914), filósofo y físico estadounidense, nacido en Cambridge (Massachusetts). Cursó estudios en la Universidad de Harvard. Entre 1864 y 1884 dio clases de manera intermitente de lógica y filosofía en las universidades Johns Hopkins y Harvard, y en 1877 fue el primer delegado estadounidense en el Congreso Internacional Geodésico.
En 1861 Peirce emprendió una serie de experimentos con péndulos que contribuyeron en gran medida a la determinación de la densidad y forma de la Tierra, y también a desarrollar investigaciones sobre la dimensión de las ondas de luz. En 1867 se interesó por el sistema de lógica creado por el matemático británico George Boole, y trabajó hasta 1885 sobre la ampliación y transformación del álgebra de Boole.
Sin embargo, Peirce es más conocido por su sistema filosófico, llamado posteriormente pragmatismo. Según su filosofía, ningún objeto o concepto posee validez inherente o tiene importancia. Su trascendencia se encuentra tan sólo en los efectos prácticos resultantes de su uso o aplicación. La verdad de una idea u objeto, por lo tanto, puede ser medida mediante la investigación científica sobre su utilidad. El concepto fue ampliado por los filósofos estadounidenses William James y John Dewey, e influyó de manera importante en el moderno pensamiento filosófico y sociológico. Entre las obras de Peirce figuran Investigaciones fotométricas (1878) y Estudios de lógica (1883). Sus ensayos aparecieron en 1923 en Azar, amor y lógica, obra publicada después de su muerte.[4]
1- INTRODUCCIóN Lógica (en griego, logos, 'palabra', 'proposición', 'razón'), ciencia que trata de los principios válidos del razonamiento y la argumentación. El estudio de la lógica es el esfuerzo por determinar las condiciones que justifican a una persona para pasar de unas proposiciones dadas, llamadas premisas, a una conclusión que se deriva de aquéllas. La validez lógica es la relación entre las premisas y la conclusión de tal forma que si las premisas son verdaderas la conclusión es verdadera.
La validez de una proposición se tomará de la veracidad de la
conclusión. Si una de las premisas, o más, es falsa, la conclusión de una
proposición válida será falsa. Por ejemplo: "Todos los mamíferos son
animales de cuatro patas, todos los hombres son mamíferos, por lo tanto, todos
los hombres son animales de cuatro patas" es una proposición válida que
conduce a una conclusión falsa. Por otro lado, una proposición nula puede, por
casualidad, llegar a una conclusión verdadera. "Algunos animales tienen
dos patas; todos los hombres son animales, por lo tanto todos los hombres
tienen dos patas" representa una conclusión verdadera, pero la proposición
no lo es. Por lo tanto, la validez lógica depende de la forma que adopta la
argumentación, no su contenido. Si la argumentación fuera válida, cualquier
otro término podría sustituir a cualquiera de los casos utilizados y la validez
no se vería afectada. Al sustituir "cuatro patas" por "dos
patas" se comprueba que ambas premisas pueden ser verdaderas y la
conclusión falsa. Por lo tanto, la proposición no es correcta aunque posea una conclusión
verdadera.
2. LóGICA ARISTOTÉLICA
Lo que ahora se conoce como lógica clásica o tradicional fue por
primera vez enunciada por Aristóteles, quien elaboró leyes para un correcto
razonamiento silogístico. Un silogismo es una proposición hecha de una de estas
cuatro afirmaciones posibles: "Todo A es B" (universal afirmativo),
"Nada de A es B" (universal negativo), "Algo de A es B"
(particular afirmativo), o "Algo de A no es B" (particular negativo).
Las letras sustituyen a palabras comunes como "perro", "animal
de cuatro patas", o "cosa viviente", llamadas términos
del silogismo. Un silogismo bien formulado consta de dos premisas y una
conclusión, debiendo tener cada premisa un término en común con la conclusión y
un segundo término relacionado con la otra premisa. En lógica clásica se
formulan reglas por las que todos los silogismos bien construidos se
identifican como formas válidas o no válidas de argumentación.
3. LóGICA MODERNA
A mediados del siglo XIX, los matemáticos británicos George Boole
y Augustus De Morgan abrieron un nuevo campo a la lógica, hoy conocido como
lógica simbólica o moderna, que más tarde fue desarrollada por el matemático
alemán Gottlob Frege y de un modo especial por los matemáticos británicos
Bertrand Russell y Alfred North Whitehead en Principia Mathematica (3
vols., 1910-1913). El sistema lógico de Russell y Whitehead cubre un espectro
mayor de posibles argumentaciones que las que se pueden encontrar en la lógica
silogística. Introduce símbolos para frases enteras y para las conjunciones que
las unen, como "o", "y", "si... entonces...".
Cuenta con símbolos diferentes para el sujeto lógico y el predicado lógico de
una frase; y adjudica símbolos para distinguir las clases, para los miembros de
las clases y para las relaciones de la pertenencia a una clase y la inclusión
en una clase. También se aleja de la lógica clásica en sus suposiciones de la
existencia respecto a las cosas aludidas en sus afirmaciones universales. La
afirmación "Todo A es B" significa en lógica moderna que "Si
algo es A, entonces es B"; lo que, a diferencia de la lógica tradicional,
no significa que todo A existe.
Tanto la rama clásica como la moderna implican métodos de lógica
deductiva. En cierto sentido, las premisas de una proposición válida contienen
la conclusión, y la verdad de la conclusión se deriva de la verdad de las
premisas. También se han hecho esfuerzos para desarrollar métodos de lógica
inductiva como las que sostienen que las premisas conllevan una evidencia para
la conclusión, pero la verdad de la conclusión se deduce, sólo con un margen
relativo de probabilidad, de la verdad de la evidencia. La contribución más
importante a la lógica inductiva es la del filósofo británico John Stuart Mill,
quien en Sistema de lógica (1843) estructuró los métodos de prueba que,
según su interpretación, iban a caracterizar la ciencia empírica. Este estudio
ha desembocado, en el siglo XX, en el campo conocido como filosofía de la
ciencia. Muy relacionada con ésta se encuentra la rama de las matemáticas llamada
teoría de la probabilidad.
Tanto la lógica moderna como la clásica asumen en sus formas más corrientes que cualquier proposición bien elaborada puede ser o verdadera o falsa. En años recientes se han desarrollado sistemas de la llamada lógica combinatoria: una afirmación puede tener un valor distinto a verdadero o falso. En algunos supuestos es sólo un tercer valor neutro, en otros es un valor de probabilidad expresado como una fracción que oscila entre 0 y 1 o entre -1 y +1. También se han llevado a cabo serios trabajos por desarrollar sistemas de lógica modal, con el objeto de representar las relaciones lógicas entre las afirmaciones de posibilidad e imposibilidad, de necesidad y contingencia. Otra vía es la que supone lógica deóntica: la investigación de las relaciones lógicas entre órdenes o entre afirmaciones de obligación.
4. ÁREAS RELACIONADAS
Muy relacionadas con la lógica se encuentran la semántica o
filosofía del lenguaje, que trata acerca del significado de las palabras y
frases; la epistemología, o teoría del conocimiento, que se ocupa de las
condiciones bajo las cuales las afirmaciones son verdaderas; y la psicología
del razonamiento, que se refiere a los procesos mentales que se siguen en el
curso de un razonamiento. Algunos tratados sobre lógica incluyen estas
materias, pero lo esencial de ese interés se ciñe a las relaciones lógicas
entre diversas afirmaciones contrapuestas.[5]
Deducción, en lógica, es una forma de razonamiento donde se infiere una conclusión a partir de una o varias premisas. En la argumentación deductiva válida la conclusión debe ser verdadera si todas las premisas son asimismo verdaderas. Así por ejemplo, si se afirma que todos los seres humanos cuentan con una cabeza y dos brazos y que Carla es un ser humano, en buena lógica entonces se puede concluir que Carla debe tener una cabeza y dos brazos. Es éste un ejemplo de silogismo, un juicio en el que se exponen dos premisas de las que debe deducirse una conclusión lógica. La deducción se expresa casi siempre bajo la forma del silogismo.
Véase también Inducción.[6]
1. INTRODUCCIóN
Probabilidad, rama de las matemáticas que se ocupa
de medir o determinar cuantitativamente la posibilidad de que ocurra un
determinado suceso. La probabilidad está basada en el estudio de la combinatoria
y es fundamento necesario de la estadística.
La creación de la probabilidad se atribuye a los matemáticos
franceses del siglo XVII Blaise Pascal y Pierre de Fermat, aunque algunos
matemáticos anteriores, como Gerolamo Cardano en el siglo XVI, habían aportado
importantes contribuciones a su desarrollo. La probabilidad matemática comenzó
como un intento de responder a varias preguntas que surgían en los juegos de
azar, por ejemplo, saber cuántos dados hay que lanzar para que la probabilidad
de que salga algún seis supere el 50%.
La probabilidad de un resultado se representa con un número entre 0 y 1, ambos inclusive. La probabilidad 0 indica que el resultado no ocurrirá nunca, y la probabilidad 1, que el resultado ocurrirá siempre.
El cálculo matemático de probabilidades se basa en situaciones teóricas en las cuales puede configurarse un espacio muestral cuyos sucesos elementales tengan todos la misma probabilidad. Por ejemplo, al lanzar un dado ideal, la probabilidad de cada una de las caras es 1/6. Al lanzar dos dados, la probabilidad de cada uno de los resultados es 1/36.
En estos casos, la probabilidad de un suceso cualquiera S, se calcula mediante la regla de Laplace:
P[S] = número de sucesos elementales de S / número total de sucesos elementales
La expresión anterior se suele expresar del siguiente modo:
P[S] = número de casos favorables a S / número de casos posibles
La aplicación de la regla de Laplace en casos elementales es muy sencilla. Por ejemplo, en la experiencia de lanzar un dado:
P[{2, 3, 4, 5}] = 4/6
pues {2, 3, 4, 5} tiene 4 sucesos elementales y la experiencia admitía, en total, seis posibilidades.
Sin embargo, la aplicación de esta regla en experimentos más complejos requiere el uso de la combinatoria. Por ejemplo, al extraer tres cartas de una baraja y ver la probabilidad de que las tres sean tréboles, el número total de sucesos elementales es C523 = (52•51•50)/(3•2•1) = 22.100. Los casos favorables son C133= (13•12•11)/(3•2•1) = 286. Por tanto, la probabilidad pedida es:
P[TRES TRÉBOLES] = 286/22.100 = 143/11.050
La resolución de este tipo de problemas se simplifica notablemente
si consideramos "sacar tres naipes" como una experiencia compuesta por tres
experiencias simples: "sacar un naipe y después otro y después otro".
2. CÁLCULO DE PROBABILIDADES EN EXPERIENCIAS COMPUESTAS El cálculo de probabilidades en una experiencia compuesta se realiza multiplicando las probabilidades de los sucesos componentes.
Si las experiencias son independientes (el resultado de una no influye en las siguientes), entonces
P[S1 y S2 y...y Sn] = P[S1]•P[S2]...P[Sn]
Así, para calcular la probabilidad de que al tirar tres dados no se obtenga ningún 6 se procederá así:
P[ningún 6] = P[no 6]•P[no 6]•P[no 6] = (5/6)3 = 125/216
Si las experiencias son dependientes (el resultado de cada una
influye en las probabilidades de las siguientes), entonces
P[S1 y S2 y...y Sn]= P[S1]•P[S2/supuesto que ocurrió S1]...P[Sn/supuesto que ocurrieron S1 y S2 y...]
Así, para calcular la probabilidad de obtener tres tréboles al extraer tres cartas de una baraja, se procederá así:
P[TRES TRÉBOLES] = P[1� tréboles]•P[2� tréboles/1� tréboles]•P[3� tréboles/1� y 2� tréboles] = (13/52)•(12/51)•(11/50) = 143/11.050
3. LEY DE LOS GRANDES NúMEROS Según se ha visto, la regla de Laplace sirve para calcular probabilidades de sucesos extraídos de experimentos ideales en los cuales se da por sentado que los distintos sucesos elementales son equiprobables. Sin embargo, la realidad no es así. Por ejemplo, en un dado real la probabilidad de que salga un 4 no es 1/6. Si el dado es muy perfecto, P[4] será, acaso, un número próximo a 1/6, pero no exactamente 1/6. En cualquier caso, se ignora cuál es el valor exacto de la probabilidad para cada dado en concreto. La forma de averiguar esos valores es mediante la ley de los grandes números. Esta ley afirma que la frecuencia relativa de un suceso, fr(S), cuando el número de experiencias se hace muy grande (tiende a infinito), se estabiliza en torno a un valor que es la probabilidad del suceso, P[S]. Esto se expresa, simbólicamente del siguiente modo:
lim fr(S) = P[S]
Según esta ley, para averiguar la probabilidad de un suceso S, se debe realizar la experiencia reiteradamente y calcular la frecuencia relativa de S. Cuanto mayor sea el número de experiencias realizadas más fiable es la estimación de la probabilidad P[S] a partir de la frecuencia relativa fr(S).
Las compañías de seguros evalúan las probabilidades de los sucesos
que les interesan (accidentes de coches, inundaciones, epidemias,...) mediante
una minuciosa recopilación de datos (experiencias) que les permiten inferir
dichas probabilidades con suficiente aproximación como para poder asignar las
cuotas de manera justa.
COMENTARIO FINAL: La filosofía comienza en la Grecia antigua, en el Asia Menor, alrededor del siglo VII a.C. Allí se establecieron los jonios, uno de los primeros pueblos de habla griega. La situación económica en los siglos VII y VI era muy próspera agrícola y comercialmente. Esta circunstancia, sumada al fluido contacto con la floreciente babilónica y con Egipto, permitió a estas colonias un gran desarrollo cultural.
Bibliografía utilizada:
"Filosofía", Silvia del Luján Di Sanza, Jorge Eduardo Fernández, Patricia La Porta, Editorial Santillana, Buenos Aires, 1999.
"Filosofía Cristiana", José M. De Torre, Ediciones Palabra S.A., Madrid, 1982
"Ética del quehacer educativo", Carlos Cardona, Editorial Rialp, Madrid, 1992
Apuntes Varios, personales.
Profesor José Luis Dell'Ordine
<!------Empieza logo de dobleu.com----->
<a href="http://www.dobleu.com/bin/certificado.du?ID=31981"target="_blank"><img src="http://www.dobleu.com/calidad2.gif" width="86" height="87" border="0"></a>
<!------Termina logo de dobleu.com----->
[1]"Bacon, Francis, barón de Verulam
[3]"Mill, John Stuart".
[4]"Peirce, Charles Sanders,"
[5]"Lógica,"
Monografias, Exámenes, Universidades, Terciarios, Carreras, Cursos, Donde Estudiar, Que Estudiar y más: Desde 1999 brindamos a los estudiantes y docentes un lugar para publicar contenido educativo y nutrirse del conocimiento.
Contacto »