Translate

martes, 30 de agosto de 2011

Tomcat en modo demonio: jsvc

Es posible ejecutar Tomcat, y por ende Alfresco, en modo demonio. La principal ventaja de este sistema es que nos permite ejecutar Tomcat como usuario no-root y usar puertos privilegiados. Es importante aclarar que según la documentación vamos a poder usar los puertos <1024  pero única y exclusivamente a nivel de tomcat, no de Alfresco. Esto nos va a permitir por ejemplo ejecutar Tomcat en el puerto 80. Sin embargo para poder usar FTP y CIFS desde un usuario no privilegiados deberemos usar puertos alternativos y seguir la guía de la wiki y redireccionar los puertos a nivel de firewall. Esto es debido a que solo se demoniza el proceso de tomcat y no las aplicaciones que ejecuta.

jsvc viene con los binarios de Tomcat con lo que solo necesitaremos compilarlos:

    cd $CATALINA_HOME/bin
    tar xvfz commons-daemon-native.tar.gz
    cd commons-daemon-1.0.x-native-src/unix
    ./configure
    make
    cp jsvc ../..
    cd ../..

Si no tenemos definida la variable de entorno JAVA_HOME tendremos que pasar la ruta en el configure:
./configure --with-java=/usr/java/jdk1.6.0_19/

A continuacion pongo el init script que uso para arrancar/parar Alfresco con jsvc
#!/bin/sh
#
# tomcat           Utilizing the jsvc start and stop the servlet engine.
#
# chkconfig: 345 99 10
# description: Starts and stops the tomcat servlet engine.
# Source function library.
. /etc/rc.d/init.d/functions
JAVA_HOME=/usr/java/jdk1.6.0_15/
CATALINA_HOME=/opt/alfresco/tomcat
DAEMON_HOME=/opt/alfresco/tomcat/bin/
TOMCAT_USER=tomcat
TOMCAT_GROUP=tomcat
TOMCAT_PID=/var/run/jsvc_alfresco.pid
TMP_DIR=/opt/alfresco/tomcat/temp
CATALINA_OPTS=
CLASSPATH=$JAVA_HOME/lib/tools.jar:$CATALINA_HOME/bin/commons-daemon.jar:$CATALINA_HOME/bin/bootstrap.jar
CATALINA_WORK_DIR=$CATALINA_HOME/work
# To get a verbose JVM
#-verbose \
# To get a debug of jsvc.
#-debug \
WAIT_MAX=2
case "$1" in
start)
  #
  # Start Tomcat
  #
echo -n "Starting Tomcat: "
$DAEMON_HOME/jsvc -user $TOMCAT_USER -pidfile $TOMCAT_PID -home $JAVA_HOME -jvm server -XX:+UseConcMarkSweepGC -XX:+CMSPermGenSweepingEnabled -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=196M -Xms512m -Xmx2048m -Dcatalina.home=$CATALINA_HOME -Djava.io.tmpdir=$TMP_DIR -outfile /opt/alfresco/tomcat/logs/catalina.out -errfile '&1' $CATALINA_OPTS -cp $CLASSPATH org.apache.catalina.startup.Bootstrap

sleep 2s
if [ -f $TOMCAT_PID ]; then
             echo_success
else
             echo_failure
fi
echo
;;
stop)
#
# Stop Tomcat
#
echo -n "Stopping Tomcat: "
PID=`cat $TOMCAT_PID`
kill $PID 2>/dev/null 1>/dev/null
if [ `ps -p ${PID} > /dev/null 2>&1` ]; then
             echo_failure
else
             echo_success
             rm -f $TOMCAT_PID > /dev/null 2>&1
fi
echo
;;
flush)
#
# Stop Tomcat
#
   echo -n "Stopping Tomcat: "
   PID=`cat $TOMCAT_PID`
   kill $PID 2>/dev/null 1>/dev/null
   if [ `ps -p ${PID} > /dev/null 2>&1` ]; then
                echo_failure
   else
                echo_success
                rm -f $TOMCAT_PID > /dev/null 2>&1
   fi
   echo
   echo -n "Flushing Tomcat CACHE ($CATALINA_WORK_DIR) : "
   rm -rf $CATALINA_WORK_DIR
   if [ -e $CATALINA_WORK_DIR ]; then
                echo_failure
                echo
                exit 1;
   fi
   mkdir $CATALINA_WORK_DIR
   chown $TOMCAT_USER.$TOMCAT_GROUP $CATALINA_WORK_DIR
   if [ ! -e $CATALINA_WORK_DIR ]; then
                echo_failure
                echo
                exit 1;
   fi
   echo_success
   echo
   ;;
*)
   echo "Usage: $0 {start|stop|flush}"
   exit 1;;
esac
exit 0

Este script además tiene el parámetro flush que nos va a permitir eliminar de una forma fácil el contenido del directorio work.

Hay que tener en cuenta que cuando usamos jsvc ya no estamos invocando a los scripts startup.sh ni shutdown.sh con lo cual no se parará el proceso usando estos ficheros. Todas las variables que tuvieramos definidas en este fichero como en el catalina.sh deberán ser movidas al nuevo script.

Cuando miremos los procesos en ejecución veremos 2 procesos. El primero levanta los puertos y el segundo es el que atiende las peticiones.

root     16126     1  0 12:32 ?        00:00:00 jsvc.exec -user tomcat -pidfile /var/run/jsvc_alfresco.pid -home /usr/java/jdk1.6.0_19/ -jvm server -XX:+UseConcMarkSweepGC -XX:+CMSPermGenSweepingEnabled -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=160M -Xms512m -Xmx1024m -Dcatalina.home=/opt/alfresco/tomcat -Djava.io.tmpdir=/opt/alfresco/tomcat/temp -outfile /opt/alfresco/tomcat/logs/catalina.out -errfile &1 -cp /usr/java/jdk1.6.0_19//lib/tools.jar:/opt/alfresco/tomcat/bin/commons-daemon.jar:/opt/alfresco/tomcat/bin/bootstrap.jar org.apache.catalina.startup.Bootstrap
tomcat   16127 16126 52 12:32 ?        00:01:15 jsvc.exec -user tomcat -pidfile /var/run/jsvc_alfresco.pid -home /usr/java/jdk1.6.0_19/ -jvm server -XX:+UseConcMarkSweepGC -XX:+CMSPermGenSweepingEnabled -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=160M -Xms512m -Xmx2048m -Dcatalina.home=/opt/alfresco/tomcat -Djava.io.tmpdir=/opt/alfresco/tomcat/temp -outfile /opt/alfresco/tomcat/logs/catalina.out -errfile &1 -cp /usr/java/jdk1.6.0_19//lib/tools.jar:/opt/alfresco/tomcat/bin/commons-daemon.jar:/opt/alfrescod/tomcat/bin/bootstrap.jar org.apache.catalina.startup.Bootstrap

Parando Tomcat

Arrancando Tomcat via jsvc,  entra en mono deomnio, lo que significa que no va a escuchar en el puerto 8005 y por tanto no se va a poder detener via catalina.sh (o shutdown.sh).
Lo que se hace es enviar un SIGTERM o SIGINT al proceso que pertenece a root. En nuestro caso se encuentra el pid en $CATALINA_PID.

sábado, 23 de julio de 2011

Receta para Alfresco en Cluster con replicación de sesión

Con la salida de la versión 3.4.3 de Alfresco Enterprise se ha solucionado un bug que arrastraba la configuración en cluster desde 2009. Finalmente se ha solucionado y voy a explicar paso a paso como se debe configurar utilizando el paquete en formato zip.

Alfresco de por si no replica las sesiones del usuario de un nodo a otro y de esto se debe encargar el servidor de alpicaciones. Por tanto debemos establecer el cluster no solo en Alresco si no también a nivel de Tomcat. En mis pruebas he seguido este esquema:

         Balanceador
        192.168.1.122
             |    
          Cluster      
        /         \        
    Tomcat1       Tomcat2  
192.168.1.122   192.168.1.12

  • Balanceador: Apache 2.2 + proxy_balancer + proxy_ajp
  • Cluster: Tomcat configurado mediante BackupManager
  • Tomcat1: Centos 5 con Tomcat 6.0.32
  • Tomcat2: Ubuntu con Tomcat 6.0.32 
En este esquema un nodo hace de servidor NFS y de balanceador. En un entorno en producción estos 2 elementos deberian ser independientes para garantizar que la caida de un nodo no afecte al otro. 
Creamos la estructura de directorios para la instalación
#mkdir -p /opt/alfresco/tomcat
#mkdir -p /opt/alfresco/indices
Tomcat:
#cd /opt/alfresco
#tar zxvf  /tmp/apache-tomcat-6.0.32.tar.gz
#ln -s apache-tomcat-6.0.32 tomcat
Copiamos el contenido del paquete de Alfresco
#unzip alfresco-enterprise-3.4.3.zip -d alfresco
#cp -rp /tmp/alfresco/web-server/* /opt/alfresco/tomcat
En esta copia a parte de los ficheros de Alfresco también se sobreescriben ficheros de configuración de Tomcat. Es necesario editar el fichero context.xml en destino puesto que el valor que tiene impide el funcionamiento del cluster. En el fichero context.xml debemos dejar comentada la línea:
 <!-- Uncomment this to disable session persistence across Tomcat restarts -->
 <!--Manager pathname="" /-->
Activamos el puerto AJP en ambos nodos descomentando en el fichero server.xml la linea
 <Connector port="8009" protocol="AJP/1.3" redirectPort="8443" />
Configuramos el nombre de la ruta en la directiva Engine del fichero server.xml de los 2 nodos.  tomcat1:
 <Engine name="Catalina" defaultHost="localhost" jvmRoute="tomcat1">
tomcat2:
 <Engine name="Catalina" defaultHost="localhost" jvmRoute="tomcat2">
En este punto también vamos a configurar el Cluster de Tomcat tal como se indica en el manual de Apache Tomcat: http://tomcat.apache.org/tomcat-6.0-doc/cluster-howto.html Editamos el fichero server.xml dentro de la directiva <Engine>
<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"
                 channelSendOptions="6">

          <Manager className="org.apache.catalina.ha.session.BackupManager"
                   expireSessionsOnShutdown="false"
                   notifyListenersOnReplication="true"
                   mapSendOptions="6"/>
          <!--
          <Manager className="org.apache.catalina.ha.session.DeltaManager"
                   expireSessionsOnShutdown="false"
                   notifyListenersOnReplication="true"/>
          -->        
          <Channel className="org.apache.catalina.tribes.group.GroupChannel">
            <Membership className="org.apache.catalina.tribes.membership.McastService"
                        address="228.0.0.4"
                        port="45564"
                        frequency="500"
                        dropTime="3000"/>
            <Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver"
                      address="auto"
                      port="5000"
                      selectorTimeout="100"
                      maxThreads="6"/>

            <Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter">
              <Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender"/>
            </Sender>
            <Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/>
            <Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/>
            <Interceptor className="org.apache.catalina.tribes.group.interceptors.ThroughputInterceptor"/>
          </Channel>

          <Valve className="org.apache.catalina.ha.tcp.ReplicationValve"
                 filter=".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"/>

          <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer"
                    tempDir="/tmp/war-temp/"
                    deployDir="/tmp/war-deploy/"
                    watchDir="/tmp/war-listen/"
                    watchEnabled="false"/>

          <ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/>
</Cluster>
Añadimos el tag distributable que permitirá la replicación de sesiones en el fichero web.xml de alfresco.war y share.war en ambos nodos al final del fichero:
.

.
<distributable/>
</web-app>
MySQL
tomcat1:
mysql> create database alfresco343;
mysql> grant all privileges on alfresco343.* to 'alfresco'@'%' identified by 'alfresco';
NFS
tomcat1:
/etc/exports
/opt/alfresco/alf_data 192.168.1.0/24(rw,no_root_squash,no_subtree_check,async) 
tomcat2:
#mount 192.168.1.122:/opt/alfresco/alf_data /opt/alfresco/alf_data
Apache tomcat1:
#a2enmod proxy_ajp proxy_balancer proxy
Configuramos el balanceo con los 2 nodos, incluyendo además el balancer-manager que nos permitirá monitorizar, activar y desactivar cada uno de los nodos para realizar las pruebas. Para ello he configurado 2 grupos diferentes de balanceo, uno para Alfresco y otro para Share, cada uno de manera distinta para ver las 2 posibles configuraciones en el fichero /etc/apache2/conf.d/proxyajp.conf
<Location /balancer-manager>
   SetHandler balancer-manager
</Location>

<Proxy balancer://balancer1>
   BalancerMember ajp://192.168.1.122:8009 route=tomcat1
   BalancerMember ajp://192.168.1.12:8009 route=tomcat2
   ProxySet stickysession=JSESSIONID
</Proxy>
ProxyPass /alfresco balancer://balancer1/alfresco
<Proxy balancer://balancer2>
   BalancerMember ajp://192.168.1.122:8009 route=tomcat1
   BalancerMember ajp://192.168.1.12:8009 route=tomcat2
</Proxy>
<Location /share>
ProxyPass balancer://balancer2/share stickysession=JSESSIONID
</Location>
alfresco-global.properties en tomcat2:
#alf_data compartido por nfs
dir.root=/opt/alfresco343/alf_data
#indices en local
dir.indexes=/opt/alfresco343/indices/lucene-indexes
dir.indexes.backup=/opt/alfresco343/indices/backup-lucene-indexes
dir.indexes.lock=/opt/alfresco343/indices/locks
.
.
alfresco.cluster.name=ALFCLUSTER
alfresco.jgroups.defaultProtocol=TCP
alfresco.tcp.initial_hosts=192.168.1.122[7800],192.168.1.12[7800]
alfresco.jgroups.bind_address=192.168.1.12
En el arranque veremos primero como se forma el cluster de tomcat
22-jul-2011 19:38:47 org.apache.catalina.core.StandardService start
INFO: Arrancando servicio Catalina
22-jul-2011 19:38:47 org.apache.catalina.core.StandardEngine start
INFO: Starting Servlet Engine: Apache Tomcat/6.0.32
22-jul-2011 19:38:47 org.apache.catalina.ha.tcp.SimpleTcpCluster start
INFO: Cluster is about to start
22-jul-2011 19:38:47 org.apache.catalina.tribes.transport.ReceiverBase bind
INFO: Receiver Server Socket bound to:/192.168.1.12:5000
22-jul-2011 19:38:47 org.apache.catalina.tribes.membership.McastServiceImpl setupSocket
INFO: Setting cluster mcast soTimeout to 500
22-jul-2011 19:38:47 org.apache.catalina.tribes.membership.McastServiceImpl waitForMembers
INFO: Sleeping for 1000 milliseconds to establish cluster membership, start level:4
22-jul-2011 19:38:48 org.apache.catalina.ha.tcp.SimpleTcpCluster memberAdded
INFO: Replication member added:org.apache.catalina.tribes.membership.MemberImpl[tcp://{192, 168, 1, 122}:5000,{192, 168, 1, 122},5000, alive=10519,id={80 9
4 82 -34 95 106 76 118 -85 119 -121 -44 -79 -105 -125 74 }, payload={}, command={}, domain={}, ]
y una vez arrancado Alfresco, el cluster de este:
19:39:29,778  INFO  [cache.jgroups.JGroupsKeepAliveHeartbeatReceiver]
New cluster view with additional members:
   Last View: null
   New View:  [tomcat1-59540|1] [tomcat1-59540, tomcat2-44982]

Una vez arrancados los 2 nodos y comprobando que Alfresco funciona vamos a abrir una pestaña nueva en el navegador con el balancer manager para poder ver en que nodo estamos y poder deshabilitarlo sin tener que parar ningún nodo:



Accediendo a http://192.168.1.122/share vemos que se ha generado tráfico en el worker del primer nodo, por tanto procedo a deshabilitarlo forzando el paso al segundo nodo.

Durate mis pruebas con Share la sesión se ha mantenido sin mostrarse ningún error. En el caso de Alfresco Explorer ha mostrado una pantalla de error de sesión expirada pero al volver a la aplicación ha recuperado la sesión.

Espero que esto os sirva!

lunes, 20 de junio de 2011

Configuracion con Oracle RAC 10g y 11g

Recientemente he tenido la oportunidad de configurar Alfresco contra un Oracle RAC. Además la suerte ha sido doble porque inicialmente se configuró contra un RAC de 10g y posteriormente se ha migrado a un 11g, con lo cual hemos podido comprobar el funcionamiento en ambas versiones.

De cara a Alfresco el tema del RAC es transparente ya que los cambios de configuración se realizan a nivel del driver de conexión. Vamos a ver la configuración utilizada:


db.name=alfresco
db.username=alfresco
db.password=alfresco
db.driver=oracle.jdbc.OracleDriver
db.url=jdbc:oracle:thin:@(DESCRIPTION=(LOAD_BALANCE=on)(ADDRESS=(PROTOCOL=TCP)(HOST=nodo1-vip.red.dominio.es)(PORT=1521))(ADDRESS=(PROTOCOL=TCP)(HOST=nodo2-vip.red.dominio.es)(PORT=1521))(CONNECT_DATA=(SERVICE_NAME=LAN_APLICACIONES.red.dominio.es)))
db.pool.validate.query=SELECT 1 FROM DUAL
hibernate.default_schema=ALFRESCO
El cambio para Oracle RAC está en la cadena de conexión. Vamos a ver uno a uno los parámetros de esta cadena de conexión:

DESCRIPTION 
contiene el descriptor de conexión, es decir todos los parámetros que se van a usar para conectar. En este caso teniamos el RAC con 2 nodos con lo cual solo teniamos un único descriptor. Sería posible para instalaciones mas complejas tener una lista de descriptores y cada descriptor a su vez con varios servidores. Por ejemplo:

(DESCRIPTION_LIST=
  (DESCRIPTION= 
   (ADDRESS=(protocol_address_information))
   (ADDRESS=(protocol_address_information))
   (ADDRESS=(protocol_address_information))
   (CONNECT_DATA= 
     (SERVICE_NAME=service_name)))
  (DESCRIPTION= 
   (ADDRESS=(protocol_address_information))
   (ADDRESS=(protocol_address_information))
   (ADDRESS=(protocol_address_information))
   (CONNECT_DATA= 
     (SERVICE_NAME=service_name))))

LOAD_BALANCE
Indica si se van a usar las direcciones de forma aleatoria (activo) o de forma secuencial (desactivado). Se puede especificar cualquiera de estos valores que podemos encontrar en diferentes ejemplos:
on | off | yes | no | true | false
ADDRESS contiene el PROTOCOL, ADDRESS, PORT
que se explican por si mismas

CONNECT_DATA contiene la identificación del servicio .

SERVICE_NAME
En este caso no estamos usando un SID, el cual apuntaría solo a uno de los nodos, si no que se define un servicio a nivel de Oracle y se apunta contra este.

Es posible que nos encontremos ejemplos en los que en la cadena de conexión aparece también el parámetro FAILOVER. Este parámetro esta por defecto activado para los descriptores así que no será necesario incluirlo a no ser que queramos desactivarlo.

Desde el servidor podemos ver como las conexiones se empiezan a balancear entre los nodos:


[tomcat]# lsof -nPi |grep 1521
tnslsnr   22544   oracle   11u  IPv6  996133       TCP *:1521 (LISTEN)
jsvc      28316 alfresco  231u  IPv6 1026752       TCP 172.17.1.154:55223->172.17.31.23:1521 (ESTABLISHED)
jsvc      28316 alfresco  232u  IPv6 1026753       TCP 172.17.1.154:55224->172.17.31.23:1521 (ESTABLISHED)
jsvc      28316 alfresco  233u  IPv6 1026754       TCP 172.17.1.154:55667->172.17.31.21:1521 (ESTABLISHED)
jsvc      28316 alfresco  234u  IPv6 1026755       TCP 172.17.1.154:55226->172.17.31.23:1521 (ESTABLISHED)
jsvc      28316 alfresco  235u  IPv6 1026756       TCP 172.17.1.154:55227->172.17.31.23:1521 (ESTABLISHED)
jsvc      28316 alfresco  236u  IPv6 1026757       TCP 172.17.1.154:55228->172.17.31.23:1521 (ESTABLISHED)
jsvc      28316 alfresco  237u  IPv6 1026758       TCP 172.17.1.154:55671->172.17.31.21:1521 (ESTABLISHED)
jsvc      28316 alfresco  238u  IPv6 1026759       TCP 172.17.1.154:55230->172.17.31.23:1521 (ESTABLISHED)
jsvc      28316 alfresco  239u  IPv6 1026760       TCP 172.17.1.154:55231->172.17.31.23:1521 (ESTABLISHED)


Es importante recordar que el esquema para el parámetro hibernate.default_schema se debe incluir siempre en mayúsculas, ya que de otro modo el primer arranque funcionará correctamente pero en el segundo recibiriamos un error de Schema upgrade failed


http://download.oracle.com/docs/cd/B28359_01/network.111/b28317/tnsnames.htm

http://wiki.alfresco.com/wiki/Database_Configuration#Oracle_example

miércoles, 15 de junio de 2011

Bug: Read only y renombrar licencia

Como reza en el JIRA de Alfresco

http://issues.alfresco.com/jira/browse/ALF-7487


Era muy común en las versiones enterprise que de vez en cuando se perdiera la licencia y el repositorio se pusiera en modo lectura. La solución siempre habia sido renombrar la licencia de *.installed a *.lic

Como se puede ver en JIRA, el bug se ha "solucionado" en la 3.4.2, lo pongo entre comillas porque el problema aparece pero con otra cara. Esta vez el repositorio no se queda en read-only pero aparece un warning en el log:

 16:10:38,215 WARN [service.descriptor.DescriptorService] unexpected exception caught and ignored  
 de.schlichtherle.xml.GenericCertificateIntegrityException  
 at de.schlichtherle.xml.GenericCertificate.verify(Unknown Source)  
 at de.schlichtherle.license.LicenseNotary.verify(Unknown Source)  
 at de.schlichtherle.license.LicenseManager.verify(Unknown Source)  
 at de.schlichtherle.license.ftp.LicenseManager.verify(Unknown Source)  
 at org.alfresco.enterprise.license.AlfrescoLicenseManager.verify(AlfrescoLicenseManager.java:148)  
 at de.schlichtherle.license.LicenseManager.verify(Unknown Source)  
 at org.alfresco.enterprise.license.LicenseComponent$1.execute(LicenseComponent.java:147)  
 at org.alfresco.enterprise.license.LicenseComponent$1.execute(LicenseComponent.java:141)  
 at org.alfresco.repo.transaction.RetryingTransactionHelper.doInTransaction(RetryingTransactionHelper.java:381)  
 at org.alfresco.enterprise.license.LicenseComponent$2.doWork(LicenseComponent.java:201)  
 at org.alfresco.enterprise.license.LicenseComponent$2.doWork(LicenseComponent.java:198)  
 at org.alfresco.repo.security.authentication.AuthenticationUtil.runAs(AuthenticationUtil.java:508)  
 at org.alfresco.enterprise.license.LicenseComponent.verify(LicenseComponent.java:197)  
 at org.alfresco.enterprise.license.LicenseComponent.verifyLicense(LicenseComponent.java:101)  
 at org.alfresco.repo.descriptor.DescriptorServiceImpl$1$2.execute(DescriptorServiceImpl.java:206)  
 at org.alfresco.repo.descriptor.DescriptorServiceImpl$1$2.execute(DescriptorServiceImpl.java:199)  
 at org.alfresco.repo.transaction.RetryingTransactionHelper.doInTransaction(RetryingTransactionHelper.java:381)  
 at org.alfresco.repo.descriptor.DescriptorServiceImpl$1.doWork(DescriptorServiceImpl.java:197)  
 at org.alfresco.repo.security.authentication.AuthenticationUtil.runAs(AuthenticationUtil.java:508)  
 at org.alfresco.repo.descriptor.DescriptorServiceImpl.onBootstrap(DescriptorServiceImpl.java:162)  
 at org.springframework.extensions.surf.util.AbstractLifecycleBean.onApplicationEvent(AbstractLifecycleBean.java:56)  
 at org.springframework.context.event.SimpleApplicationEventMulticaster.multicastEvent(SimpleApplicationEventMulticaste  
 r.java:97)  
 at org.alfresco.repo.management.SafeApplicationEventMulticaster.multicastEvent(SafeApplicationEventMulticaster.java:78  
 )  
 at org.springframework.context.support.AbstractApplicationContext.publishEvent(AbstractApplicationContext.java:294)  
 at org.springframework.context.support.AbstractApplicationContext.finishRefresh(AbstractApplicationContext.java:858)  
 at org.springframework.context.support.AbstractApplicationContext.refresh(AbstractApplicationContext.java:419)  
 at org.springframework.web.context.ContextLoader.createWebApplicationContext(ContextLoader.java:261)  
 at org.springframework.web.context.ContextLoader.initWebApplicationContext(ContextLoader.java:192)  
 at org.springframework.web.context.ContextLoaderListener.contextInitialized(ContextLoaderListener.java:47)  
 at org.alfresco.web.app.ContextLoaderListener.contextInitialized(ContextLoaderListener.java:63)  
 at org.apache.catalina.core.StandardContext.listenerStart(StandardContext.java:3843)  
 at org.apache.catalina.core.StandardContext.start(StandardContext.java:4342)  
 at org.apache.catalina.core.ContainerBase.addChildInternal(ContainerBase.java:791)  
 at org.apache.catalina.core.ContainerBase.addChild(ContainerBase.java:771)  
 at org.apache.catalina.core.StandardHost.addChild(StandardHost.java:525)  
 at org.apache.catalina.startup.HostConfig.deployDescriptor(HostConfig.java:627)  
 at org.apache.catalina.startup.HostConfig.deployDescriptors(HostConfig.java:553)  
 at org.apache.catalina.startup.HostConfig.deployApps(HostConfig.java:488)  
 at org.apache.catalina.startup.HostConfig.start(HostConfig.java:1149)  
 at org.apache.catalina.startup.HostConfig.lifecycleEvent(HostConfig.java:311)  
 at org.apache.catalina.util.LifecycleSupport.fireLifecycleEvent(LifecycleSupport.java:117)  
 at org.apache.catalina.core.ContainerBase.start(ContainerBase.java:1053)  
 at org.apache.catalina.core.StandardHost.start(StandardHost.java:719)  
 at org.apache.catalina.core.ContainerBase.start(ContainerBase.java:1045)  
 at org.apache.catalina.core.StandardEngine.start(StandardEngine.java:443)  
 at org.apache.catalina.core.StandardService.start(StandardService.java:516)  
 at org.apache.catalina.core.StandardServer.start(StandardServer.java:710)  
 at org.apache.catalina.startup.Catalina.start(Catalina.java:578)  
 at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)  
 at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)  
 at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)  
 at java.lang.reflect.Method.invoke(Method.java:597)  
 at org.apache.catalina.startup.Bootstrap.start(Bootstrap.java:288)  
 at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)  
 at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)  
 at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)  
 at java.lang.reflect.Method.invoke(Method.java:597)  
 at org.apache.commons.daemon.support.DaemonLoader.start(DaemonLoader.java:177)  

La solución como en el caso anterior es la misma, renombrar el fichero .lic a .installed

martes, 14 de junio de 2011

Importación masiva con Alfresco Bulk Filesystem import

La entrada de hoy es para explicar como funciona el módulo Alfresco Bulk Filesystem import desarrollado por Peter Monks. Este módulo nos va a permitir importar un conjunto de ficheros permitiendonos incorporar metadatos en el proceso.

Alfresco trae varios mecanismos para importar contenidos:

En todos los casos anteriores necesitamos crear reglas o los mecanismos necesarios usando la API para asignar los metadatos.

Mediante el módulo simplemente creando un fichero con el mismo nombre que el original pero con la extension metadata.properties hará que se lea su contenido y se incorporen los metadatos de forma dinámica.

Por ejemplo, tengo un documento que llamado Documentación.odf y otro Documentación.metadata.properties ubicado en el mismo directorio

Dentro del fichero properties se pondrá el tipo de contenido y cada uno de los metadatos:

  # tipo de contenido
  type=cm:content
  # Aspectos
  aspects=cm:versionable, custom:myAspect
  # Propiedades
  cm\:title=This is the value of the cm:title field.
  cm\:description=This is the value of the cm:description field.
  # Enlace a un tag (es necesario apuntar a la referencia)
  cm\:taggable=workspace://SpacesStore/3da6c395-3a4b-4a57-836d-8e5
  # Propiedad personalizada de nuestro modelo de datos:
  custom\:myProperty=This is the value of the custom:myProperty field.
  # Propiedad con multiples valores
  custom\:mvProperty=first value,second value,third value.
  # Fechas (sólo formato ISO8601)
  cm\:created=2011-06-15T10:00:01.234+01:00
  cm\:modified=2011-06-15T10:00:01.234+01:00
Otra de las ventajas de las que se habla es que la importación mediante este metodo es mucho más rápida, ya que nos ahorramos el overhead de los protocolos y estamos cargando los datos desde un disco local, así que me he decidido a comprobarlo por mi mismo

He subido a alfresco mediante FTP y utilizando Filezilla configurado para subir los ficheros de 1 en 1, (haciéndolo de 2 en dos tuve fallos en varios ficheros y fue más lento).

El tiempo para subir 1,4Gb de datos distribuidos en 679 ficheros fue de 4:24 segundos. Esto sin haber asignado ningún metadato.

A continuación y para poder realizar la prueba con metadatos de forma rápida me situé en la carpeta donde se habían subido los documentos (/opt/alfresco34/alf_data/contentstore/2011/6/14/12) y con un pequeño script cree los ficheros de metadatos introduciendo únicamente el tipo de contenido:

# for i in `find . -type f` ;do echo "type=cm:content" > $i.metadata.properties;done
De esta manera he podido crear  de una forma muy rápida todos los ficheros. He usado el contenido del contentstore porque sabemos que los nombres en el contenstore no tienen espacios, y el miniscript me dio algún problema con los ficheros que tenían espacios en los nombres. El módulo es muy sensible a fallos, si no existe algún fichero de metadatos no se ejecutará.

He comprobado además que en la carpeta del contentstore únicamente están los archivos cargados por FTP y que los nuevos se van a copiar en la hora siguiente.

Ya tenemos los ficheros a subir con sus metadatos. Con la importación del módulo se añade un web-script que nos ofrece una página desde donde podemos iniciar la importación masiva en Alfresco y monitorizar todo el proceso. En mi caso localhost (ojo de no poner barra al final!!):

http://localhost:8080/alfresco/service/bulk/import/filesystem


En esta pantalla pondremos donde se encuentran los ficheros que queremos importar. Esto ha de ser una ruta en el sistema de ficheros y puede ser local o estar montada de forma remota.

El siguiente campo es donde queremos que se ubiquen los ficheros. La página usa Ajax y nos ayudará a auto completar este campo, lo que resulta muy útil.

Una vez lanzada la importación veremos como va el progreso


El resultado fue que se subieron los ficheros en 2 minutos 39 segundos, casi la mitad de tiempo. No está nada mal.

Como nota final,  mencionar que es posible incorporar metadatos a ficheros que ya existen en Alfresco simplemente poniendo los ficheros de metadatos.

ACTUALIZACIÓN:

El formato del fichero de metadatos ya no es un fichero de texto plano, si no que se ha pasado al formato xml para dar un mejor soporte a carácteres unicode. El formato que sigue es:


  <?xml version="1.0" encoding="UTF-8"?>
  <!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
  <properties>
    <entry key="key1">value1</entry>
    <entry key="key2">value2</entry>
    ...
  </properties>


Más información

http://blogs.alfresco.com/wp/pmonks/2009/10/22/bulk-import-from-a-filesystem/
http://code.google.com/p/alfresco-bulk-filesystem-import/

jueves, 9 de junio de 2011

Alfresco 4.0 en SVN

Cual ha sido mi sorpresa que al intentar acceder a los nightly builds de Alfresco http://dev.alfresco.com/downloads/nightly/dist/ llevaban desde el dia 19 de Abril sin actualizarse. Un rápido aviso a Jeff Potts hizo que se arreglara esto para poder utilizar la última versión del SVN sin necesidad de tener que bajar el código fuente y compilarlo

Hoy me ha llegado un correo informandome de que ya estaba solucionada y cuando accedo.. Sorpresa: Alfresco 4.0

Si quereis probarlo solo teneis que descargarlo desde:
 
http://wiki.alfresco.com/wiki/Nightly_Community_Build

Tened en cuenta que lo que se haya para descargar no ha pasado por QA y por tanto es posible que haya errores. Por ejemplo en la versión del día de hoy falta una coma en el script /webapps/alfresco/WEB-INF/classes/alfresco/dbscripts/create/org.hibernate.dialect.MySQLInnoDBDialect/AlfrescoCreate-RepoTables.sql

Las novedades a primera vista son muy considerables y parecen orientadas a hacerlo todo mucho más sencillo:
  • Ayudas contextuales 
  • Posibilidad de arrastrar documentos al navegador para subirlos.
  • Simplificación de los sites con elementos configurables mediante dashelts (ya no tenemos wiki y blog por defecto, solo los añadiremos si los necesitamos)
  • Posibilidad de subida de ficheros de configuración al diccionario de datos de tareas programadas, acciones..
ACTUALIZADO: con la nueva versión ya disponible oficialmente. Información sobre las novedades en la siguiente presentación:

http://www.slideshare.net/alfresco/get-ready-for-alfresco-40

miércoles, 1 de junio de 2011

Nuevas funcionalidades en Share preparadas

Leo en la web de Jeff Potts  que @schminke ha públicado unos screencasts de las nuevas funcionalidades de Alfresco Share que ya están en el subversion pero que todavía no están en la última release 3.4e

Para poder probar estas funcionalidades es necesario hacer un CheckOut desde subversion.

Se espera que la próxima release que incluya estas funcionalidades saldrá a final de Verano o principios de Otoño

EDITADO: Debido a problemas de ancho de banda se pueden encontrar las screencasts aquí:
http://www.schminkel.de/alfresco-blog/alfresco-35.html

jueves, 26 de mayo de 2011

Bug: No se ven las categorías

Me he encontrado más de una vez que al actualizar de versión de Alfresco han habido problemas con perdidas de permisos. En este caso voy a comentar cuando esto pasa con las categorías.

Cuando un usuario, que no es el admin, intenta navegar por categorías se encuentra con esto:



Lo que ha pasado es que durante el upgrade se han perdido los permisos del grupo EVERYONE. Como podemos comprobarlo?
Abriendo el buscador de nodos y realizar la siguiente consulta XPath: cm:categoryRoot

Nos debería dar dará un único resultado con el primary path:

{http://www.alfresco.org/model/content/1.0}categoryRoot)

Si vamos a ver los permisos del nodo y lo comparamos con los valores que debería tener veremos lo siguiente:


A la izquierda tendriamos los valores correctos y a la derecha vemos cómo han desaparecido estos permisos.

Podremos solucionarlo de forma sencilla a través de JavaScript, crearemos un fichero con el siguiente contenido:


nodes = search.xpathSearch("/cm:categoryRoot/cm:generalclassifiable");
generalclassNode = nodes[0];
generalclassNode.setPermission("Read");

y lo copiaremos dentro del Diccionario de datos en el espacio Scripts. Ahora ejecutaremos el script desde los detalles del fichero con la opción Ejecutar acción -> Ejecutar un script

Depués de esto nos deberían volver a aparecer los permisos

Backup en Alfresco

Una de las tareas más importantes del administrador de Alfresco es planificar una correcta estrategia de backup

En Alfresco nos encontramos con diferentes elementos sobre los que hacer backup:

Datos estáticos:
  • Servidor de aplicaciones
  • Ficheros de configuración  y personalización de Alfresco
Datos dinámicos:
  • Almacen de datos.
  • Índices.
  • Metadatos.
Vistas las dependencias que hay entre ellos en el articulo de arquitectura se entiende que no es posible restaurar Alfresco si no se dispone de la base de datos o del almacén. El caso de los índices es caso a parte puesto que es posible regenerarlos teniendo los otros dos elementos, pero este proceso puede llegar a ser costoso en tiempo dependiendo del volumen de datos (puede llegar al orden de días si el volumen es grande).

El almacen de datos es el directorio al que apunta la propiedad dir.root
Los índices están ubicados en el directorio apuntado por lucene-indexes aunque estos no deben ser copiados para evitar tener datos corruptos. En su lugar se debe copiar el directorio backup-lucene-indexes el cual es una copia que se realiza de forma automática a las 03:00 am.
Es importante tener en cuenta que la copia de este directorio debe producirse preferentemente después de esta hora. Si es necesario es posible cambiar la hora de este job en el fichero scheduled-jobs-context.xml:

    <bean id="indexBackupTrigger" class="org.alfresco.util.CronTriggerBean">
        <property name="jobDetail">
            <ref bean="indexBackupJobDetail" />
        </property>
        <property name="scheduler">
            <ref bean="schedulerFactory" />
        </property>
        <!-- trigger at 3am each day -->
        <property name="cronExpression">
            <value>0 0 3 * * ?</value>
        </property>
    </bean>

La base de datos debe ser copiada con las herramientas que proporcione el fabricante o terceros.

De esta forma el backup se podría resumir en:
  1. Hacer backup de backup-lucene-indexes
  2. Hacer backup de base de datos
  3. Hacer backup de la ubicación del almacen de datos


Es muy importante realizar las copias de seguridad en el orden indicado arriba por varios motivos, imaginemos que se sube un fichero durante la copia:
  • Si se crea una entrada en la base de datos después de realizar el backup de índices se puede regenerar el índice de la última transacción realizada con la reindexación en modo AUTO.
  • Si tenemos un fichero que existe en base de datos pero no en el sistema de ficheros tendremos un nodo huerfano. Aparecería en Alfresco como si existiera pero tendriamos un error al intentar abrirlo.
  • Si existe en el sistema de ficheros pero no en base de datos tendriamos un fichero sin referenciar pero mantendriamos la coherencia de los datos. 
Restauración completa

Los pasos que deberemos seguir para recuperar una copia completa serán:
  1. Parar Alfresco
  2. Mover dir.root a otra ubicación si es posible/necesario
  3. Mover backup-lucene-indexes a lucene-indexes, si la copia automática es buena se puede utilizar la misma que esté en el servidor, en caso contrario se tendrá que usar la del último backup
  4. Restaurar la base de datos
  5. Arrancar Alfresco
Si tenemos una copia valida  de backup-lucene-indexes y la propiedad index.recovery.mode=AUTO se generaran los indices de los elementos subidos después de la última copia ahorrandonos mucho tiempo en el arranque.


Restauración de un documento


Si queremos recuperar un documento que ya hemos eliminado de la papelera, es posible recuperarlo a partir de una consulta a la base de datos que nos indique cual es la ubicación en el sistema de ficheros del documento. Recordatorio del proceso de borrado de ficheros en Alfresco

Para ello deberemos recuperar la base de datos completa desde la última copia y a continuación ejecutar la siguiente consulta, que en mi caso va a recuperar el fichero 'trashcleaner-0.0.2.amp':

select a.node_id,
a.string_value,
e.content_url
from
alf_node_properties a,
alf_qname b,
alf_content_data c ,
alf_node_properties aa,
alf_content_data d,
alf_content_url e
where
a.string_value='trashcleaner-0.0.2.amp' and
a.qname_id=b.id and
b.local_name='name' and
c.id=aa.long_value and
aa.node_id=a.node_id and
aa.long_value=d.id and
d.content_url_id=e.id;

Esto nos devuelve el id del nodo, el nombre del fichero y la ubicación en disco:

+---------+------------------------+------------------------------------------------------------------+
| node_id | string_value           | content_url                                                      |
+---------+------------------------+------------------------------------------------------------------+
|     551 | trashcleaner-0.0.2.amp | store://2011/5/26/10/14/5579b1ba-a7f7-4a5e-a5d2-e5c1b27afe3c.bin |
+---------+------------------------+------------------------------------------------------------------+


podremos encontrar el contenido en el directorio:
alf_data/contentstore/2011/5/26/10/14/5579b1ba-a7f7-4a5e-a5d2-e5c1b27afe3c.bin

Si esta consulta nos devolviera varios valores porque tuvieramos el fichero en varios espacios podríamos mirar el espacio del que cuelga con la siguiente consulta buscando por el identificador del nodo:

select c.string_value
from
alf_child_assoc a,
alf_qname b,
alf_node_properties c,
alf_qname bb
where
child_node_id=551 and
a.type_qname_id=b.id and
b.local_name='contains' and
a.parent_node_id=c.node_id and
c.qname_id=bb.id and
bb.local_name='name';

+--------------+
| string_value |
+--------------+
| Sistemas     |
+--------------+
1 row in set (0.00 sec)

Para consultas más complejas, como por ejemplo filtrar por tipo de contenido, o documentos versionados y demás recomiendo la descarga de Mysql Workbench para sacar un Diagrama EER y poder ver de una forma visual las dependencias que existen entre cada una de las tablas.

La clave en este punto es que el la tabla alf_node_properties tiene un  long_value, el cual es el ID para una columna en la tabla alf_content_data que referencia a la tabla alf_content_url

Aqui teneis el diagrama para esta consulta:



    Introducción a Spring

    Voy a intentar explicar de una manera básica cual es el papel de Spring dentro de Alfresco desde el enfoque de sistemas para ayudar a comprender el proceso de configuración y de inicio de Alfresco.

    Spring es un framework de J2EE que pretende facilitar la programación y promover las buenas prácticas 

    IoC
    Estas son las siglas de Inversion de Control, que es un mecanismo muy popular en Spring y que permite mover fuera del código la configuración de objetos y ubicarla en ficheros de configuración. Esto se realiza típicamente a través de ficheros XML.

    Se le llama inversión de control porque en lugar de que la clase tome unos valores predeterminados dentro del código lo que hacemos es leer el fichero XML que contiene estos parámetros e instanciará la clase que esté configurada en el Bean con los valores definidos. De esta manera si se quiere cambiar el valor de un parámetro no es necesario recompilar código. Para los más curiosos al final pondré un ejemplo de como se definen estos ficheros.

    En Alfresco encontramos el inicio dentro del fichero web.xml

       <!-- Spring Application Context location -->
       <context-param>
          <param-name>contextConfigLocation</param-name>
          <param-value>/WEB-INF/web-application-context.xml</param-value>
          <description>Spring config file location</description>
       </context-param>

    El cual hace a su vez un import del fichero application-context.xml
    .
    .
    <import resource="classpath:alfresco/application-context.xml" />
    .
    .

    Es precisamente este fichero el punto de inicio de cualquier aplicación  que usa el framework de Spring, así que en realidad cuando iniciamos el servidor de aplicaciones no estamos arrancando Alfresco en primera instancia, si no que iniciamos Spring y  este mediante la inversión de control y los ficheros de configuración va iniciando todos y cada uno de los servicios de Alfresco.

    El classpath alfresco hace referencia al directorio WEB-INF\classes\alfresco y se hace referencia normalmente como configRoot

    A partir de este punto se puede ver como se configura Alfresco a través de:

    – Referencia in-line a XML
    {configRoot}/alfresco/application-context.xml
    – Referencias a ficheros XML externos. Incluye la importación de todo el classpath *(:alfresco/extension/*-context.xml
    files) mediante el uso de wildcard.
    – Referencias a ficheros de propiedades externas.

    La ubicación del classpath extension depende del servidor de aplicaciones pero típicamente son :

    Tomcat: <TOMCAT_HOME>/shared/classes/alfresco/extension/
    Jboss: <JBOSS_HOME>/instancia/conf/alfresco/extension/

    Esto proporciona un método de carga de ficheros en 2 fases

    1. classpath://alfresco/*-context.xml
    2. classpath://alfresco/extension/*-context.xml
    Se realiza la carga de los ficheros de configuración ubicados en el configRoot y a continuación los ubicados en el directorio extension. En caso de conflicto se toma el último valor cargado. Esto es necesario para poder disponer de un mecanismo de actualización limpio ya que unos ficheros están ubicados dentro del directorio de despliegue y los otros están fuera. Debido a esto no es buena práctica hacer modificaciones dentro del configRoot y se deben hacer en el directorio extension.

    Otros ficheros importantes:

    - core-services-context.xml: Incluye la definición de beans del nucleo de Alfresco e incluye la importación del fichero repository.properties
    - repository.properties: Define las propiedades por defecto que toma alfresco como por ejemplo:

    dir.root: define la ubicación del contentstore y de los indices de lucene
    db.*: define usuario, contraseña y tipo de base de datos

    Vemos entonces que tenemos 2 lugares para realizar nuestra configuración y que además se importan ficheros con wildcards *.
    • En caso de conflicto tenemos que el orden de mayor a menor prioridad es:
      • cambiosJMX persistidos en la BBDD (sólo Enterprise y a partir de la versión 3.2)
      • <extensionRoot>/alfresco/extension/subsystems/<category>/<typeName>/*.properties
      • <extensionRoot>/alfresco/subsystems/<category>/default/*.properties
      • <extensionRoot>/alfresco-global.properties
      • <extensionRoot>/alfresco/module/*/alfresco-global.properties
      • <extensionRoot>/alfresco/repository.properties
    Y los últimos y con prioridad más baja serán los ubicados dentro del configRoot.

    Arquitectura de Alfresco (I)

    La arquitectura de Alfresco es la típica de una aplicación web basada en JAVA:


     
    Los usuarios acceden típicamente mediante un navegador a la interfaz de usuario de Alfresco (gestión documental) o Share (entorno colaborativo). Estas interfaces pueden variar en función de los componentes instalados (WCM,RM) para adecuarse a la lógica de estos.


    Todos los documentos subidos al repositorio de Alfresco con toda su información adicional (Metadatos) se persisten en la capa de almacenamiento según su naturaleza:
    • Contenido -> Sistema de Ficheros
    • Metadatos -> Base de datos
    Tal como muestra el diagrama vemos que Alfresco separa a nivel lógico el repositorio (lugar donde se almacenan nuestros documentos) de las aplicaciones que acceden a él (DM,RM,WCM,SHARE).

    A nivel físico tenemos únicamente 2 ficheros war:
    •  Alfresco.war (DM + Repositorio)
    •  Share.war (SHARE)
    A nivel lógico seria posible deshacernos de la interfaz de Alfresco y programar nuestra propia interfaz o acceder al repositorio a través de una tercera aplicación

    Esto es posible gracias a los Foundation Services de Alfresco, los cuales nos permiten acceder al contenido del repositorio y realizar acciones sobre él. Se dispone entre otros de servicios de autenticación, búsquedas, permisos, contenido..etc). El listado completos de los servicios lo podemos obtener dentro del fichero public-services-context.xml

    Estos servicios son la capa pública más baja de la API de Alfresco son publicados a través de una interfaz JAVA. Cada uno de ellos está mapeado a un componente que a modo de caja negra es capaz de ejecutar el código necesario para obtener los resultados de los servicios solicitados. Además disponemos de un registro de servicios que, a modo de listín, nos permite obtener los diferentes servicios disponibles.

    Dado que Alfresco usa el framework de Spring, cada uno de estos servicios y componentes está configurado mediante ficheros XML. En este artículo podeis encontrar cual es la estructura de estos ficheros y como funciona spring dentro de Alfresco.

    Las 3 acciones más típicas que realizaremos con Alfresco serán las de subir, bajar y buscar documentos. Estas acciones se realizan mediante 3 de estos servicios apoyandose también en otros elementos ya existentes y probados dentro del mundo Open Source como Hibernate o Lucene:
    - NodeService: En alfresco todos los elementos son tratados como nodos pero con diferentes propiedades. Por ejemplo, un fichero es un nodo con ciertas propiedades o metadatos como son el título, autor, fecha de creación e incluso el propio contenido no es más que un metadato. A su vez un espacio es también un nodo que tiene una asociación del tipo "contiene a" con otros nodos.
    El servicio encargado de trabajar con los nodos será el NodeService y toda la información sobre los nodos, se almacenará en base de datos.

    - ContentService: El contenido suele estar referido a los ficheros binarios que subimos o creamos dentro de Alfresco, es decir nuestro fichero Power Point, Word o PDF o cualquier tipo MIME que se nos ocurra. Estos ficheros binarios se almacenarán en el sistema de ficheros del servidor (contentstore) siguiendo una estructura de directorios ordenada por fecha.
    Este servicio se encargará de la leer o escribir el contenido en el repositorio asi como de transformarlo de un tipo MIME a otro.

    - SearchService: Cada vez que se sube contenido a Alfresco este es indexado de forma automática, tanto sus metadatos como el contenido de forma que no solo podemos buscar mediante el nombre del fichero o su autor si no también por el contenido.
    Este servicio utiliza por debajo Apache Lucene para el indexado y las consultas.
    Los indices generados por Lucene se almacenan también en el sistema de ficheros

    Parte de esta información se encuentra orginalmente en:
    http://wiki.alfresco.com/wiki/Alfresco_Repository_Architecture