dor_id: 4111514

506.#.#.a: Público

590.#.#.d: Los artículos enviados a la "Revista Mexicana de Análisis de la Conducta", se juzgan por medio de un proceso de revisión por pares

510.0.#.a: Consejo Nacional de Ciencia y Tecnología (CONACyT); Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal (Latindex); Scientific Electronic Library Online (SciELO); SCOPUS

561.#.#.u: http://www.psicologia.unam.mx/

650.#.4.x: Medicina y Ciencias de la Salud

336.#.#.b: article

336.#.#.3: Artículo de Investigación

336.#.#.a: Artículo

351.#.#.6: https://www.revistas.unam.mx/index.php/rmac/index

351.#.#.b: Revista Mexicana de Análisis de la Conducta

351.#.#.a: Artículos

harvesting_group: RevistasUNAM

270.1.#.p: Revistas UNAM. Dirección General de Publicaciones y Fomento Editorial, UNAM en revistas@unam.mx

590.#.#.c: Open Journal Systems (OJS)

270.#.#.d: MX

270.1.#.d: México

590.#.#.b: Concentrador

883.#.#.u: https://revistas.unam.mx/catalogo/

883.#.#.a: Revistas UNAM

590.#.#.a: Coordinación de Difusión Cultural

883.#.#.1: https://www.publicaciones.unam.mx/

883.#.#.q: Dirección General de Publicaciones y Fomento Editorial

850.#.#.a: Universidad Nacional Autónoma de México

856.4.0.u: https://www.revistas.unam.mx/index.php/rmac/article/view/25423/23981

100.1.#.a: Staddon, J. E. R.

524.#.#.a: Staddon, J. E. R. (1995). Combinaciones de programas y elección: experimentos y teoría. Revista Mexicana de Análisis de la Conducta; Vol. 21 Núm. 3 . Recuperado de https://repositorio.unam.mx/contenidos/4111514

245.1.0.a: Combinaciones de programas y elección: experimentos y teoría

502.#.#.c: Universidad Nacional Autónoma de México

561.1.#.a: Facultad de Psicología, UNAM

264.#.0.c: 1995

264.#.1.c: 2011-06-01

653.#.#.a: explicit choice; implicit choice; conditioned reinforcement; chain schedules; delayed reinforcement; behavioral allocation; behavioral economics; elección explícita; elección implícita; reforzamiento condicionado; programas encadenados; reforzamiento demorado; distribución conductual; economía conductual

506.1.#.a: La titularidad de los derechos patrimoniales de esta obra pertenece a las instituciones editoras. Su uso se rige por una licencia Creative Commons BY-NC-ND 4.0 Internacional, https://creativecommons.org/licenses/by-nc-nd/4.0/legalcode.es, para un uso diferente consultar al responsable jurídico del repositorio por medio del correo electrónico editor_general@rmac-mx.org

884.#.#.k: https://www.revistas.unam.mx/index.php/rmac/article/view/25423

001.#.#.#: 109.oai:ojs.pkp.sfu.ca:article/25423

041.#.7.h: spa

520.3.#.a: En este capítulo se analizó la elección implícita y explícita. La elección implícita se refiere al proceso que determina las proporciones de tiempo que los animales pasan en diferentes actividades, los factores que mantienen esa distribución y los efectos de distribuirla, bloqueando actividades o haciendo el acceso a una ac­tividad contingente sobre la ejecución en otra. La elección explícita se refiere a procedimientos experimentales especiales que confrontan dos respuestas similares, tales como picar a la izquierda y picar a la derecha, una contra la otra. En la primera parte del capítulo se discutió el control temporal y de estímulos en el contexto de la elección explícita entre programas concurrentes complejos (elección). En la primera sección se mostró como el control temporal (en la forma de estimación del tiempo proporcional o escalar) y el control de estímulos se com­binan, en animales bien entrenados, para producir el efecto conocido como refor­zamiento condicionado en los programas encadenados. También se mostró como los reforzadores condicionados actúan como facilitadores de la memoria, cuando los animales aprenden a responder en programas de reforzamiento demorado y como las limitaciones de memoria pueden subyacer a los efectos de los programas de segundo orden. Parece que la estimación del tiempo proporcional determina la ejecución aún en los programas de razón. Se discutió con algún detalle una variedad de resultados experimentales en procedimientos encadenados simples y concurrentes. La discusión mostró que la mayoría, quizás todos, los efectos concur­rentes no representan elección en el sentido usual, en lo absoluto. Los animales no parecen estar comparando alternativas, sino más bien parecen tratar cada alter­nativa como si ocurriera en aislado. Se derivaron patrones bastante complejos de preferencia aparente y cambio de preferencia de un "pichón ideal", que se com­porta de acuerdo a la estimación del tiempo proporcional. También se mostró como este análisis se relaciona con el principio de optimización en los programas encadenados, por ejemplo, el patrón de respuestas que maximiza la tasa de com­ida: resulta que la estimación del tiempo proporcional casi siempre produce un patrón de elección cercano al óptimo. Se mostraron las similitudes entre el prin­cipio de optimización, para los animales en los programas de reforzamiento en­cadenados y las predicciones de la teoría de forrajeo óptimo acerca de la selección de dieta. En la última parte de esta sección se discutió el problema del auto-control -la preferencia por recompensas pequeñas pero inmediatas versus grandes pero demoradas -y se mostró como también se aplica aquí la misma regla de estimación del tiempo proporcional. En la última mitad del capítulo se discutió la elección implícita, los factores que determinan la distribución de actividades bajo condiciones libres. Se vio que bajo muchas condiciones la distribución de actividad es estable y el organismo se resiste, de varias maneras, a las perturbaciones que tratan de cambiar la dis­tribución de su nivel de línea base apareada. David Premack, hizo el primer intento por entender estos efectos y concluyó que las actividades con mayor probabilidad siempre refuerzan a las actividades con menor probabilidad. Este principio molar se extendió primero con el principio cualitativo de la privación de respuesta y después con una variedad de análisis cuantitativos de optimización y economía. El primero de estos, el modelo de distancia mínima dio un estatus especial a los niveles de línea base apareada o punto de satisfacción. El análisis de optimización es una herramienta general que se puede aplicar a cualquier sistema adaptativo. Nos ha permitido ver principios comunes subyacentes a la elección implícita y explícita. Hallazgos experimentales robustos tales como la ley de igualación son generalmente consistentes con los modelos de optimización.Principios adaptativos similares -disminución de la utilidad marginal de la fre­cuencia y cantidad de la recompensa -parecen subyacer a las situaciones es­tudiadas por Premack y los programas más convencionales del reforzamiento operante. A pesar de todos sus éxitos, todos los modelos de optimización fallan bajo al­ gunas condiciones, porque son modelos funcionales, no modelos de mecanismos.Los animales y la gente rara vez, son literales optimizadores, sistemáticamente comparando los pagos a largo plazo asociados con diferentes principios. Así, mientras que la igualación en los programas concurrentes IV IV se ajusta con un número de principios de optimización, la igualación en los concurrentes IV RV no lo hace. Describí otros experimentos donde los animales claramente se comportan de una forma no óptima. En la última parte del capítulo, por lo tanto, se revisaron los mecanismos de la elección y la distribución conductual. La primera conclusión fue que los cambios marginales y las variables molares probablemente no tienen ningún efecto directo sobre la conducta, subrayando la conclusión de que aún los buenos modelos de optimización, particularmente los modelos de optimización molares, solo describen lo que los animales logran, no como lo logran. La última parte del capítulo, por lo tanto, se enfocó en los meoanismos moleculares de la distribución conductual. Discutí tres, la maximización momentánea, el mejoramien­to y la espera lineal. El primero y el último hacen predicciones muy similares en las situaciones de elección, pero la espera lineal promete ser más general. Muy aparte de los detalles cuantitativos, es claro que el tiempo estimado para el reforzador, evaluado a través de un mecanismo de estimación del tiempo de memoria restrin­gido, juega un papel dominante en todos los patrones complejos de conducta generados por una variedad de programas de reforzamiento.

773.1.#.t: Revista Mexicana de Análisis de la Conducta; Vol. 21 Núm. 3 (1995); 163-274

773.1.#.o: https://www.revistas.unam.mx/index.php/rmac/index

022.#.#.a: ISSN: 0185-4534; ISSN electrónico: 2007-0802

310.#.#.a: Cuatrimestral

300.#.#.a: Páginas: 163-274

264.#.1.b: Facultad de Psicología, UNAM; Sociedad Mexicana de Análisis de la Conducta

doi: https://doi.org/10.5514/rmac.v21.i1.ESP.25423

handle: 01355e07f96783fd

harvesting_date: 2023-08-23 17:00:00.0

856.#.0.q: application/pdf

file_creation_date: 2011-05-11 07:09:18.0

file_modification_date: 2011-05-11 07:09:18.0

file_creator: Sistemas

file_name: 655b44e06c39c36f1f0626457da4c7503dfc610943cfd9b87a44fa9d6386f69c.pdf

file_pages_number: 112

file_format_version: application/pdf; version=1.4

file_size: 2679677

245.1.0.b: Schedule Combinations and Choice: Experiment and Theory

last_modified: 2023-08-23 17:00:00

license_url: https://creativecommons.org/licenses/by-nc-nd/4.0/legalcode.es

license_type: by-nc-nd

No entro en nada

No entro en nada 2

Artículo

Combinaciones de programas y elección: experimentos y teoría

Staddon, J. E. R.

Facultad de Psicología, UNAM, publicado en Revista Mexicana de Análisis de la Conducta, y cosechado de Revistas UNAM

Licencia de uso

Procedencia del contenido

Cita

Staddon, J. E. R. (1995). Combinaciones de programas y elección: experimentos y teoría. Revista Mexicana de Análisis de la Conducta; Vol. 21 Núm. 3 . Recuperado de https://repositorio.unam.mx/contenidos/4111514

Descripción del recurso

Autor(es)
Staddon, J. E. R.
Tipo
Artículo de Investigación
Área del conocimiento
Medicina y Ciencias de la Salud
Título
Combinaciones de programas y elección: experimentos y teoría
Fecha
2011-06-01
Resumen
En este capítulo se analizó la elección implícita y explícita. La elección implícita se refiere al proceso que determina las proporciones de tiempo que los animales pasan en diferentes actividades, los factores que mantienen esa distribución y los efectos de distribuirla, bloqueando actividades o haciendo el acceso a una ac­tividad contingente sobre la ejecución en otra. La elección explícita se refiere a procedimientos experimentales especiales que confrontan dos respuestas similares, tales como picar a la izquierda y picar a la derecha, una contra la otra. En la primera parte del capítulo se discutió el control temporal y de estímulos en el contexto de la elección explícita entre programas concurrentes complejos (elección). En la primera sección se mostró como el control temporal (en la forma de estimación del tiempo proporcional o escalar) y el control de estímulos se com­binan, en animales bien entrenados, para producir el efecto conocido como refor­zamiento condicionado en los programas encadenados. También se mostró como los reforzadores condicionados actúan como facilitadores de la memoria, cuando los animales aprenden a responder en programas de reforzamiento demorado y como las limitaciones de memoria pueden subyacer a los efectos de los programas de segundo orden. Parece que la estimación del tiempo proporcional determina la ejecución aún en los programas de razón. Se discutió con algún detalle una variedad de resultados experimentales en procedimientos encadenados simples y concurrentes. La discusión mostró que la mayoría, quizás todos, los efectos concur­rentes no representan elección en el sentido usual, en lo absoluto. Los animales no parecen estar comparando alternativas, sino más bien parecen tratar cada alter­nativa como si ocurriera en aislado. Se derivaron patrones bastante complejos de preferencia aparente y cambio de preferencia de un "pichón ideal", que se com­porta de acuerdo a la estimación del tiempo proporcional. También se mostró como este análisis se relaciona con el principio de optimización en los programas encadenados, por ejemplo, el patrón de respuestas que maximiza la tasa de com­ida: resulta que la estimación del tiempo proporcional casi siempre produce un patrón de elección cercano al óptimo. Se mostraron las similitudes entre el prin­cipio de optimización, para los animales en los programas de reforzamiento en­cadenados y las predicciones de la teoría de forrajeo óptimo acerca de la selección de dieta. En la última parte de esta sección se discutió el problema del auto-control -la preferencia por recompensas pequeñas pero inmediatas versus grandes pero demoradas -y se mostró como también se aplica aquí la misma regla de estimación del tiempo proporcional. En la última mitad del capítulo se discutió la elección implícita, los factores que determinan la distribución de actividades bajo condiciones libres. Se vio que bajo muchas condiciones la distribución de actividad es estable y el organismo se resiste, de varias maneras, a las perturbaciones que tratan de cambiar la dis­tribución de su nivel de línea base apareada. David Premack, hizo el primer intento por entender estos efectos y concluyó que las actividades con mayor probabilidad siempre refuerzan a las actividades con menor probabilidad. Este principio molar se extendió primero con el principio cualitativo de la privación de respuesta y después con una variedad de análisis cuantitativos de optimización y economía. El primero de estos, el modelo de distancia mínima dio un estatus especial a los niveles de línea base apareada o punto de satisfacción. El análisis de optimización es una herramienta general que se puede aplicar a cualquier sistema adaptativo. Nos ha permitido ver principios comunes subyacentes a la elección implícita y explícita. Hallazgos experimentales robustos tales como la ley de igualación son generalmente consistentes con los modelos de optimización.Principios adaptativos similares -disminución de la utilidad marginal de la fre­cuencia y cantidad de la recompensa -parecen subyacer a las situaciones es­tudiadas por Premack y los programas más convencionales del reforzamiento operante. A pesar de todos sus éxitos, todos los modelos de optimización fallan bajo al­ gunas condiciones, porque son modelos funcionales, no modelos de mecanismos.Los animales y la gente rara vez, son literales optimizadores, sistemáticamente comparando los pagos a largo plazo asociados con diferentes principios. Así, mientras que la igualación en los programas concurrentes IV IV se ajusta con un número de principios de optimización, la igualación en los concurrentes IV RV no lo hace. Describí otros experimentos donde los animales claramente se comportan de una forma no óptima. En la última parte del capítulo, por lo tanto, se revisaron los mecanismos de la elección y la distribución conductual. La primera conclusión fue que los cambios marginales y las variables molares probablemente no tienen ningún efecto directo sobre la conducta, subrayando la conclusión de que aún los buenos modelos de optimización, particularmente los modelos de optimización molares, solo describen lo que los animales logran, no como lo logran. La última parte del capítulo, por lo tanto, se enfocó en los meoanismos moleculares de la distribución conductual. Discutí tres, la maximización momentánea, el mejoramien­to y la espera lineal. El primero y el último hacen predicciones muy similares en las situaciones de elección, pero la espera lineal promete ser más general. Muy aparte de los detalles cuantitativos, es claro que el tiempo estimado para el reforzador, evaluado a través de un mecanismo de estimación del tiempo de memoria restrin­gido, juega un papel dominante en todos los patrones complejos de conducta generados por una variedad de programas de reforzamiento.
Tema
explicit choice; implicit choice; conditioned reinforcement; chain schedules; delayed reinforcement; behavioral allocation; behavioral economics; elección explícita; elección implícita; reforzamiento condicionado; programas encadenados; reforzamiento demorado; distribución conductual; economía conductual
Idioma
spa
ISSN
ISSN: 0185-4534; ISSN electrónico: 2007-0802

Enlaces